-
Die Erfindung betrifft ein Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems, insbesondere eine Energieerzeugungsanlage.
-
Bei der Steuerung bzw. Regelung von technischen Systemen ist es oftmals wünschenswert, den Betrieb des technischen Systems über die Durchführung von entsprechenden Aktionen derart zu beeinflussen, dass das Verhalten des technischen Systems in Bezug auf bestimmte Kriterien optimiert ist. Beispielsweise ist es bei dem Betrieb einer Gasturbine sinnvoll, die durch die Turbine erzeugten Abgasemissionen zu reduzieren bzw. die Verbrennungsdynamik der Brennkammer der Gasturbine (auch als Brennkammerbrummen bezeichnet) möglichst gering zu halten. Dabei kann z.B. auf Parameter betreffend die Zuführung von Gas zur Brennkammer der Gasturbine Einfluss genommen werden.
-
Aus dem Stand der Technik sind rechnergestützte Verfahren bekannt, mit denen eine Aktionsauswahlregel bestimmt wird, wonach für entsprechende aufeinander folgende Zustände des technischen Systems, welche durch geeignete Zustandsvariablen des Systems charakterisiert sind, Aktionen ermittelt werden, welche im Hinblick auf ein Optimierungskriterium, wie z.B. die oben erwähnte geringe Schadstoffemission bzw. ein geringes Brennkammerbrummen, optimal sind. In den Dokumenten [1] und [2] wird die Bestimmung einer Aktionsauswahlregel basierend auf dem Lernen eines rekurrenten neuronalen Netzes mit Trainingsdaten aus bekannten Zuständen und Aktionen beschrieben. Gemäß der Aktionsauswahlregel wird eine Aktionssequenz für einen aktuellen Zustand des technischen Systems unter Berücksichtigung von vergangenen Zuständen in Abhängigkeit von einem Optimalitätskriterium ausgegeben. Die Aktionssequenz kann im Realbetrieb des technischen Systems in kurzer Rechenzeit bestimmt werden. Es ist dabei jedoch nicht immer sichergestellt, dass die gemäß der Aktionsauswahlregel bestimmten Aktionen optimal im Sinne des Optimalitätskriteriums sind. Abweichungen können insbesondere dann auftreten, wenn die Zustände des technischen Systems, für welche die Aktionssequenz bestimmt wird, in Betriebsbereichen liegen, welche weit entfernt von den Trainingsdaten sind.
-
Aufgabe der Erfindung ist es deshalb, ein Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems zu schaffen, welches schnell und genau die am technischen System gemäß einem Optimierungskriterium durchzuführenden Aktionen bestimmt.
-
Diese Aufgabe wird durch die unabhängigen Patentansprüche gelöst. Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen definiert.
-
Das erfindungsgemäße Verfahren dient zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems. Das technische System ist dabei insbesondere eine Energieerzeugungsanlage und in einer besonders bevorzugten Ausführungsform eine Gasturbine, wie weiter unten näher beschrieben ist. Gegebenenfalls kann das technische System jedoch auch eine Energieerzeugungsanlage in der Form einer regenerativen Energieerzeugungsanlage, wie z.B. eine Windturbine, sein. Das dynamische Verhalten des technischen Systems wird im erfindungsgemäßen Verfahren für mehrere Zeitpunkte jeweils durch einen Zustand des technischen Systems und eine in diesem Zustand am technischen System durchgeführte Aktion charakterisiert, wobei eine jeweilige Aktion zu einem jeweiligen Zeitpunkt in einen neuen Zustand des technischen Systems zum nächsten Zeitpunkt führt. Eine Aktionssequenz stellt dabei eine oder mehrere aufeinander folgend am technischen System durchzuführende Aktionen dar. Ein Zustand des technischen Systems umfasst eine und vorzugsweise mehrere Zustandsvariablen, welche Betriebszustände des technischen Systems bzw. den Betrieb des technischen Systems beeinflussende Größen sind. Demgegenüber sind Aktionen die Veränderung von einer oder mehreren Aktionsvariablen, wobei die Aktionsvariablen gegebenenfalls auch Zustandsvariablen darstellen können, welche im Rahmen der Regelung bzw. der Steuerung des technischen Systems verändert werden können.
-
In einem Schritt a) des erfindungsgemäßen Verfahrens wird über eine Aktionsauswahlregel, welche durch Lernen eines datengetriebenen Modells basierend auf Trainingsdaten umfassend Datensätze aus bekannten Zuständen und Aktionen zu mehreren Zeitpunkten bestimmt wurde, für den Zustand des technischen Systems zu einem aktuellen Zeitpunkt (d.h. zu dem Zeitpunkt, zu dem ein Steuer- bzw. Regeleingriff erfolgen soll) eine erste Aktionssequenz aus einer oder mehreren am technischen System aufeinander folgend durchzuführenden Aktionen umfassend eine initiale Aktion zum aktuellen Zeitpunkt ermittelt, wobei die erste Aktionssequenz auf einem beim Lernen des datengetriebenen Modells berücksichtigten Optimierungskriterium für den Betrieb des technischen Systems basiert und ein Gütemaß in Bezug auf das Optimierungskriterium aufweist. Je höher das Gütemaß ist, desto besser ist das entsprechende Optimierungskriterium erfüllt. Bei der Ermittlung der ersten Aktionssequenz werden in einer bevorzugten Ausführungsform der Zustand des technischen Systems zum aktuellen Zeitpunkt sowie eine Historie von weiteren vergangenen Zuständen berücksichtigt.
-
In einem Schritt b) wird anschließend mittels eines numerischen Optimierungsverfahrens nach solchen zweiten Aktionssequenzen aus einer oder mehreren am technischen System aufeinander folgend durchzuführenden Aktionen umfassend eine initiale Aktion zum aktuellen Zeitpunkt gesucht, welche ein Gütemaß aufweisen, das höher als das Gütemaß der erste Aktionssequenz ist. Dabei wird die Suche bei einer Anzahl von Start-Aktionssequenzen (d.h. zumindest einer Start-Aktionssequenz) begonnen, welche durch Variation einer Anzahl von initial bereitgestellten Aktionssequenzen umfassend die erste Aktionssequenz bestimmt werden. Hierbei werden Start-Aktionssequenzen mit einer geringen Variation gegenüber einer entsprechenden initial bereitgestellten Aktionssequenz basierend auf einem Prioritätskriterium bevorzugt. Die Start-Aktionssequenzen werden anschließend im weiteren Verlauf gemäß der Vorschrift des numerischen Optimierungsverfahrens iterativ verändert, um hierdurch zweite Aktionssequenzen mit einem höheren Gütemaß aufzufinden.
-
Gemäß Schritt b) wird somit ein numerisches Optimierungsverfahren bevorzugt in einem lokalen Bereich um die erste Aktionssequenz bzw. weiterer zur Initialisierung verwendeter Aktionssequenzen begonnen. Die Größe der Variation, d.h. die Unterschiedlichkeit zwischen einer initial bereitgestellten Aktionssequenz und der daraus durch Variation erzeugten Start-Aktionssequenz, kann in geeigneter Weise z.B. basierend auf einer Metrik für jede Aktion der Aktionssequenz definiert sein. In diesem Fall ist die Variation einer Aktion umso größer, je größer der Abstand gemäß der Metrik zwischen dieser Aktion in der variierten Aktionssequenz von der entsprechende Aktion in der nicht-variierten Aktionssequenz ist. Ebenso kann im Raum der Aktionssequenzen eine geeignete Metrik definiert sein, so dass die Gesamtvariation der Aktionssequenz über den Abstand zwischen der variierten Aktionssequenz und der nicht-variierten Aktionssequenz gemäß der Metrik bestimmt wird. Zudem kann das Prioritätskriterium unterschiedlich ausgestaltet sein. Zum Beispiel kann das Prioritätskriterium als Wahrscheinlichkeitskriterium festgelegt sein. Das heißt, gemäß einer oder mehreren Wahrscheinlichkeitsfunktionen steigt die Wahrscheinlichkeit, dass eine variierte Aktionssequenz als Start-Aktionssequenz in dem numerischen Optimierungsverfahren verwendet wird, je geringer die Variation dieser Aktionssequenz verglichen mit der zugrundeliegenden initial bereitgestellten Aktionssequenz ist. Ebenso kann das Prioritätskriterium auf einem harten Schwellwertkriterium beruhen, wobei solche Aktionssequenzen nicht als Start-Aktionssequenzen des numerischen Optimierungsverfahrens zugelassen sind, deren Variation eine vorbestimmte Schwelle überschreitet. Dabei kann z.B. für jede Aktion der Aktionssequenz ein entsprechender Schwellwert festgelegt sein, wobei die Variation der jeweiligen Aktion den Schwellwert nicht überschreiten darf. Falls die Variation über eine Metrik für die gesamte Aktionssequenz beschrieben wird, kann auch ein einziger Schwellwert für die gesamte Sequenz festgelegt sein.
-
In einem Schritt c) des erfindungsgemäßen Verfahrens wird schließlich im Falle, dass in Schritt b) eine oder mehrere zweite Aktionssequenzen mit einem höheren Gütemaß gefunden werden, zumindest ein Teil der aufeinander folgenden Aktionen der zweiten Aktionssequenz mit dem höchsten Gütemaß am technischen System durchgeführt. Werden keine zweiten Aktionssequenzen mit einem höheren Gütemaß gefunden, wird zumindest ein Teil der aufeinander folgenden Aktionen der ersten Aktionssequenz durchgeführt. Nach der Durchführung des entsprechenden Teils der Aktionen der ersten bzw. zweiten Aktionssequenzen können dann wieder die Schritte a) bis c) des erfindungsgemäßen Verfahrens zur Bestimmung eines neuen Steuer- bzw. Regeleingriffs durchgeführt werden.
-
Das erfindungsgemäße Verfahren weist den Vorteil auf, dass eine mit einem datengetriebenen Modell gelernte Aktionsauswahlregel mittels eines numerischen Optimierungsverfahrens verbessert werden kann, wobei durch eine priorisierte lokale Suche (Optimierung) nach (zweiten) Aktionssequenzen sichergestellt ist, dass Aktionssequenzen mit einem höheren Gütemaß als das Gütemaß der ersten Aktionssequenz schnell berechnet werden können und das Verfahren somit im Realbetrieb des technischen Systems eingesetzt werden kann.
-
Das in Schritt a) des erfindungsgemäßen Verfahrens verwendete gelernte datengetriebene Modell umfasst in einer bevorzugten Ausführungsform ein neuronales Netz und insbesondere ein rekurrentes neuronales Netz. In einer besonders bevorzugten Variante wird das in der Druckschrift [1] bzw. in der Druckschrift [2] beschriebene neuronale Netz verwendet, bei dem ein rekurrentes neuronales Netz mit einem Feed-Forward-Netz zum Bestimmen einer Aktionsauswahlregel kombiniert wird. Das heißt, die Aktionsauswahlregel gemäß Schritt a) wurde in diesem Fall mit dem Verfahren aus der Druckschrift [1] bzw. [2] bestimmt. Der gesamte Offenbarungsgehalt dieser Druckschriften wird durch Verweis zum Inhalt der vorliegenden Anmeldung gemacht. Anstatt eines neuronalen Netzes können in abgewandelten Ausführungsformen auch datengetriebene Modelle eingesetzt werden, welche auf Gaußschen Prozessen und/oder Regressionsbäumen und/oder auf einer Support Vector Regression beruhen. Solche Modelle sind hinlänglich aus dem Stand der Technik bekannt und werden deshalb nicht näher erläutert.
-
Das in Schritt b) des erfindungsgemäßen Verfahrens verwendete numerische Optimierungsverfahren ist in einer besonders bevorzugten Ausführungsform ein nicht-konvexes heuristisches Optimierungsverfahren bzw. ein gradientenfreies stochastisches Suchverfahren. Entsprechende Verfahren sind aus dem Stand der Technik bekannt. In einer besonders bevorzugten Ausführungsform wird als numerisches Optimierungsverfahren eine Teilchenschwarmoptimierung (englisch: Particle Swarm Optimization) und/oder ein evolutionärer Algorithmus und/oder ein generischer Algorithmus und/oder Simulated Annealing eingesetzt. Auch diese Verfahren sind aus dem Stand der Technik bekannt. Eine nähere Beschreibung der Teilchenschwarmoptimierung findet sich in den Druckschriften [3] bis [6], deren gesamter Offenbarungsgehalt zum Inhalt der vorliegenden Anmeldung gemacht wird. Eine Beschreibung von generischen Algorithmen findet sich in der Druckschrift [7], deren gesamter Offenbarungsgehalt ebenfalls zum Inhalt der vorliegenden Anmeldung gemacht wird.
-
In einer weiteren Ausgestaltung des erfindungsgemäßen Verfahrens greift die in Schritt a) verwendete Aktionsauswahlregel auf ein für das technische System bestimmtes Simulationsmodell zu, mit dem aus einer Aktion der ersten Aktionssequenz, die für einen Zustand zu einem Zeitpunkt durchgeführt wird, ein Folgezustand des technischen Systems zum nächsten Zeitpunkt ermittelt wird, wobei für den Folgezustand die Aktionsauswahlregel die nächste Aktion der ersten Aktionssequenz festlegt. Das Simulationsmodell wird vorzugsweise auch beim Lernen der Aktionsauswahlregel berücksichtigt. Insbesondere kann das Simulationsmodell wiederum über das Lernen eines neuronalen Netzes bzw. eines rekurrenten neuronalen Netzes bestimmt worden sein. Das zum Lernen des Simulationsmodells verwendete neuronale Netz kann dabei auch im Rahmen des Lernens der Aktionsauswahlregel eingesetzt werden, wie dies in den Dokumenten [1] und [2] der Fall ist. Dort wird zunächst ein Simulationsmodell des technischen Systems basierend auf einem rekurrenten neuronalen Netz gelernt, und anschließend erfolgt das Lernen der Aktionsauswahlregel derart, dass das gelernte rekurrente neuronale Netz mit einem Feed-Forward-Netz kombiniert wird.
-
In einer weiteren bevorzugten Ausgestaltung des erfindungsgemäßen Verfahrens werden mit dem Simulationsmodell ferner aus den jeweiligen Aktionen der zweiten Aktionssequenz Folgezustände des technischen Systems bestimmt, wobei ein Bewertungsmaß für jeden Folgezustand der ersten und zweiten Aktionssequenz ermittelt wird und das Gütemaß umso höher ist, je höher die Summe der Bewertungsmaße aller Folgezustände in der ersten bzw. zweiten Aktionssequenz ist. In diesem Fall wird die Güte einer Aktionssequenz basierend auf zukünftig durchzuführenden Aktionen der Aktionssequenz bestimmt.
-
In einer weiteren Ausgestaltung des erfindungsgemäßen Verfahrens werden die Schritte a) bis c) in vorbestimmten Zeitabständen wiederholt und dabei die in Schritt c) zumindest teilweise ausgeführten ersten und zweiten Aktionssequenzen in einer Datenbank gespeichert, wobei in Schritt b) als initial bereitgestellte Aktionssequenzen die erste Aktionssequenz sowie diejenigen Aktionssequenzen aus der Datenbank verwendet werden, deren initiale Aktionen in Zuständen des technischen Systems ausgeführt wurden, welche gemäß einer Metrik im Raum der Zustände einen Abstand von dem Zustand des technischen Systems zum aktuellen Zeitpunkt aufweisen, der kleiner oder kleiner gleich einem vorbestimmten Schwellwert ist. Auf diese Weise kann durch Berücksichtigung von zuvor ermittelten Aktionssequenzen das numerische Optimierungsverfahren beschleunigt werden bzw. schneller zu einer verbesserten Aktion führen.
-
In einer weiteren Ausgestaltung des erfindungsgemäßen Verfahrens wird bei Vorliegen von einem oder mehreren Kriterien ein bereits abgeschlossenes numerisches Optimierungsverfahren fortgesetzt, wobei bei der Fortsetzung nach zweiten Aktionssequenzen mit einem höheren Gütemaß als die erste Aktionssequenz gesucht wird, ohne dass das Prioritätskriterium bei der Bestimmung der Start-Aktionssequenzen berücksichtigt wird. Das oder die Kriterien umfassen dabei insbesondere das Kriterium, dass eine für das Verfahren zur Verfügung stehende Rechenkapazität eine vorbestimmte Schwelle überschreitet. Bei ausreichender Rechenkapazität kann somit eine Verbesserung des numerischen Optimierungsverfahrens erreicht werden. Wenn bei der Fortsetzung des numerischen Optimierungsverfahrens eine nochmals bessere zweite Aktionssequenz (d.h. eine zweite Aktionssequenz mit nochmals höherem Gütemaß) gefunden wird, wird diese vorzugsweise in der oben beschriebenen Datenbank gespeichert, wobei gegebenenfalls die zuvor über das Optimierungsverfahren gefundene zweite Aktionssequenz überschrieben wird.
-
In einer weiteren Ausgestaltung des erfindungsgemäßen Verfahrens wird das Lernen des datengetriebenen Modells zu vorbestimmten Zeitpunkten basierend auf den Trainingsdaten sowie weiteren Trainingsdaten fortgesetzt, wobei die weiteren Trainingsdaten Datensätze umfassen, welche jeweils eine in Schritt c) zumindest teilweise durchgeführte Aktionssequenz sowie zumindest den Zustand des technischen Systems beinhalten, in dem diese Aktionssequenz begonnen wurde. Vorzugsweise umfasst ein Datensatz dabei neben dem Zustand, zu dem die Aktionssequenz begonnen wurde, eine Historie von aufeinander folgenden Zuständen, die vor diesem Zustand liegen.
-
In einer bevorzugten Variante der soeben beschriebenen Ausführungsform wird immer dann, wenn beim Fortsetzen des Lernens ein Datensatz aus den weiteren Trainingsdaten verwendet wird, anstatt des Optimierungskriteriums für den Betrieb des technischen Systems das Optimierungskriterium einer möglichst geringen Abweichungen zwischen der über das datengetriebene Modell bestimmten Aktionssequenz und der Aktionssequenz gemäß dem Datensatz aus den weiteren Trainingsdaten berücksichtigt.
-
Mit dem erfindungsgemäßen Verfahren wird in einer besonders bevorzugten Variante eine elektrische Energieerzeugungsanlage umfassend eine Gasturbine geregelt bzw. gesteuert. Ein Zustand der Gasturbine umfasst dabei vorzugsweise eine oder mehrere der nachfolgenden Zustandsvariablen, wobei eine Aktion insbesondere eine Veränderung von einer oder mehreren der nachfolgenden Zustandsvariablen betrifft:
- – der Verdichterwirkungsgrad der Gasturbine;
- – der Turbinenwirkungsgrad der Gasturbine;
- – die geregelte Abgastemperatur der Gasturbine;
- – die Stellung einer oder mehrerer Leitschaufeln, insbesondere im Verdichter der Gasturbine;
- – die Rotationsgeschwindigkeit der Gasturbine;
- – eine oder mehrere Drücke und/oder Temperaturen in der Gasturbine, insbesondere die Eintrittstemperatur und/oder der Eintrittsdruck und/oder die Austrittstemperatur und/oder der Austrittsdruck im Verdichter und/oder in der Turbine;
- – die Temperatur in der Umgebung, in der die Gasturbine betrieben wird;
- – die Luftfeuchtigkeit in der Umgebung, in der die Gasturbine betrieben wird;
- – den Luftdruck in der Umgebung, in der die Gasturbine betrieben wird;
- – ein oder mehrere Massen- und/oder Volumenströme;
- – ein oder mehrere Parameter von einem Kühl- und/oder Hilfssystem und/oder Schmieröl- und/oder Lagersystemen in der Gasturbine, insbesondere die Stellung von einem oder mehreren Ventilen zur Zufuhr von Kühlluft;
- – die Leistung der Gasturbine, insbesondere ein prozentualer Leistungswert;
- – die Brennstoffgüte der Gasturbine;
- – die Schadstoffemission der Gasturbine, insbesondere die Emission von Stickoxiden und/oder Kohlenmonoxid;
- – die Temperatur einer oder mehrerer Turbinenschaufeln der Gasturbine;
- – die Verbrennungsdynamik der Brennkammer der Gasturbine;
- – ein oder mehrere Parameter betreffend die Zuführung von Gas zu der Brennkammer der Gasturbine;
- – die Menge an der Gasturbine zugeführtem Gas;
- – Lager- und/oder Gehäuseschwingungen in der Gasturbine.
-
Im Falle einer Gasturbine eignet sich als Optimierungskriterium für den Betrieb des technischen Systems insbesondere eine möglichst geringe Schadstoffemission der Gasturbine und/oder eine möglichst geringe Dynamik der Brennkammer der Gasturbine.
-
Neben dem oben beschriebenen Verfahren betrifft die Erfindung ferner eine Vorrichtung zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems, insbesondere einer elektrischen Energieerzeugungsanlage, wobei die Vorrichtung eine Rechnereinheit umfasst, mit der das erfindungsgemäße Verfahren bzw. eine oder mehrere Varianten des erfindungsgemäßen Verfahrens durchführbar sind.
-
Die Erfindung betrifft darüber hinaus ein technisches System, insbesondere eine Energieerzeugungsanlage und vorzugsweise eine Gasturbine, welches die soeben beschriebe Vorrichtung beinhaltet.
-
Darüber hinaus umfasst die Erfindung ein Computerprogrammprodukt mit einem auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführung des erfindungsgemäßen Verfahrens bzw. einer oder mehrerer bevorzugter Varianten des erfindungsgemäßen Verfahrens, wenn der Programmcode auf einem Rechner ausgeführt wird.
-
Ausführungsbeispiele der Erfindung werden nachfolgend anhand der beigefügten Figuren detailliert beschrieben.
-
Es zeigen:
-
1 eine schematische Darstellung einer Ausführungsform des erfindungsgemäßen Verfahrens; und
-
2 eine schematische Darstellung, welche das Fortsetzen des Lernens eines rekurrenten neuronalen Netzes gemäß einer Ausführungsform des erfindungsgemäßen Verfahrens verdeutlicht.
-
Das erfindungsgemäße Verfahren wird nachfolgend am Beispiel eines technischen Systems in der Form einer Gasturbine beschrieben. Ziel des Verfahrens ist es dabei, in einem entsprechenden Zustand der Gasturbine eine Sequenz von optimalen, in diesem Zustand und in Folgezuständen auszuführenden Aktionen zu bestimmen. Ein Zustand ist dabei ein Vektor aus einer Vielzahl von Zustandsvariablen und kann die oben erläuterten Variablen umfassen. Eine Aktion betrifft die Veränderung einer oder mehrerer Zustandsvariablen, die in der Gasturbine verstellt werden können. In dem erfindungsgemäßen Verfahren haben sich z.B. Parameter betreffend die Zuführung von Gas in die Brennkammer der Gasturbine als Zustandsvariablen für praktikabel erwiesen. Entsprechende Aktionen betreffen dabei die Veränderungen dieser Parameter. Die Parameter umfassen insbesondere entsprechende Brennstoffanteile, die an verschiedenen Positionen in die Brennkammer der Gasturbine eingespritzt werden. Diese Anteile können entsprechend verändert werden, wodurch Aktionen generiert werden. In dieser Variante der Erfindung stellen optimale Aktionen solche Aktionen dar, welche langfristig zu einem geringen Brummen in der Brennkammer führen. Gegebenenfalls können die Aktionen auch im Hinblick auf andere bzw. weitere Optimierungskriterien bestimmt werden, wie z.B. möglichst geringe Emissionen an Schadstoffen.
-
Im Rahmen der hier erläuterten Ausführungsform wird ausgehend von einem aktuellen Zustand des technischen Systems unter Berücksichtigung von einer Anzahl von vergangenen Zuständen in geeigneter Weise eine Aktionssequenz von im aktuellen und mehreren zukünftigen Zuständen durchzuführenden Aktionen festgelegt. Dabei wird eine Aktionsauswahlregel, die mit einem an sich bekannten Verfahren über das Lernen eines neuronalen Netzes bestimmt wurde, mit einem numerischen Optimierungsverfahren in der Form einer Teilchenschwarmoptimierung kombiniert, so dass eine verbesserte Aktionsauswahlregel erhalten wird, mit der im Betrieb des technischen Systems optimale Aktionen z.B. im Hinblick auf geringes Brennkammerbrummen bestimmt werden können.
-
Ausgangspunkt des nachfolgend anhand von 1 erläuterten Verfahrens ist eine Aktionsauswahlregel PO, welche vorab bereits mit einem an sich bekannten Verfahren über das Lernen eines neuronalen Netzes NN bestimmt wurde. In einer besonders bevorzugten Ausführungsform wurde die Aktionsauswahlregel basierend auf dem in der Druckschrift [1] beschriebenen rekurrenten neuronalen Netz ermittelt. Zur Bestimmung der Aktionsauswahlregel wurde gemäß dieser Druckschrift ein rekurrentes neuronales Netz, welches zunächst über entsprechende Trainingsdaten zur Repräsentation des dynamischen Verhaltens des technischen Systems gelernt wurde, mit einem Feed-Forward-Netz kombiniert, um hierdurch die Aktionsauswahlregel abzuleiten. Bei der Bestimmung der Aktionsauswahlregel wurde ein entsprechendes Optimierungskriterium berücksichtigt, mit dem die Güte RE (RE = Reward) einer über die Aktionsauswahlregel bestimmten Aktionssequenz festgelegt wird. Die Güte RE stellt dabei eine Summe entsprechender Bewertungsmaße dar, welche für jeden Zustand bestimmt werden, der im Rahmen der Durchführung der Aktionssequenz im technischen System eingenommen wird. Je höher das Bewertungsmaß, desto besser ist die Bewertung des entsprechenden Zustands. Das Optimierungskriterium ist dabei eine möglichst große Summe der Bewertungsmaße der entsprechenden Aktionssequenz. Mit anderen Worten stellt das Gütemaß die Summe der Bewertungsmaße dar, welche möglichst groß werden soll.
-
Mit der über das neuronale Netz NN gelernten Aktionsauswahlregel PO wird ausgehend von einem aktuellen Zeitpunkt eine erste Aktionssequenz A1 aus einer aktuellen Aktion und zukünftig durchzuführenden Aktionen bestimmt. Dies wird anhand des Diagramms DI in 1 verdeutlicht. Entlang der Abszisse des Diagramms sind dabei die zu aufeinander folgenden Zeitpunkten eingenommenen Zustände s des technischen Systems verdeutlicht, wobei der aktuelle Zeitpunkt der Regelung bzw. Steuerung durch t bezeichnet ist. Die Ordinate gibt die Aktionen a wieder. Durch die Linie A1 wird die erste Aktionssequenz verdeutlicht, die durch das neuronale Netz NN bestimmt wurde. Diese Linie besteht aus einer Vielzahl von einzelnen Aktionen zum aktuellen und zu zukünftigen Zeitpunkten, wie beispielhaft durch drei Punkte P angedeutet ist. In gleicher Weise setzen sich auch die weiter unten erläuterten Linien A und A2 zusammen, welche ebenfalls Aktionssequenzen darstellen. Je nach verwendeten Trainingsdaten für das neuronale Netz ist dabei nicht immer sichergestellt, dass die über das Netz ausgegebene Aktionssequenz A1 auch die tatsächlich beste Aktionssequenz im Sinne des Optimierungskriteriums ist. Demzufolge wird in der Ausführungsform der 1 die Aktionssequenz A1 mit einem numerischen Optimierungsverfahren in der Form einer Teilchenschwarmoptimierung PSO (PSO = Particle Small Optimization) weiterverarbeitet, was durch den Pfeil P1 angedeutet ist.
-
Verfahren zur Teilchenschwarmoptimierung sind an sich aus dem Stand der Technik bekannt, wie durch die bereits eingangs erwähnten Druckschriften [3] bis [6] belegt ist. Das schwarmbasierte Optimierungsverfahren PSO sucht dabei ausgehend von der ersten Aktionssequenz A1 nach zweiten Aktionssequenzen A2, welche zu einer höheren Güte RE führen. Werden solche zweiten Aktionssequenzen gefunden, wird diejenige zweite Aktionssequenz mit der höchsten Güte in einer Datenbank DB gespeichert, wie durch den Pfeil P3 angedeutet ist. Falls nicht, wird die erste Aktionssequenz in der Datenbank DB gespeichert. Die Aktionssequenzen der Datenbank DB sind in 1 mit A bezeichnet. Schließlich wird am technischen System die zweite Aktionssequenz mit der höchsten Güte bzw. die erste Aktionssequenz ausgeführt, sofern keine zweite Aktionssequenz gefunden wird.
-
Die Teilchenschwarmoptimierung PSO wird unter Verwendung der ersten Aktionssequenz A1 initialisiert. Ferner wird in der Datenbank DB nach weiteren, zur Initialisierung verwendbaren Aktionssequenzen A gesucht, was durch den Pfeil P2 angedeutet ist. Eine Aktionssequenz aus der Datenbank DB wird dann zur Initialisierung des schwarmbasierten Optimierungsverfahrens verwendet, wenn der Zustand des technischen Systems, ausgehend von dem die initiale Aktion der Aktionssequenz aus der Datenbank durchgeführt wurde, ähnlich zu dem Zustand des technischen Systems zum Zeitpunkt t ist. Dabei ist eine Metrik im Raum der Zustände festgelegt, wobei im Falle, dass der Abstand zwischen Zuständen einen vorbestimmten Schwellwert unterschreitet, die Zustände als ähnlich betrachtet werden. Werden entsprechende Zustände und damit Aktionssequenzen in der Datenbank DB gefunden, werden auch diese zur Initialisierung des schwarmbasierten Algorithmus verwendet. In dem Szenario der 1 ist im Diagramm DI als gestrichelte Linie eine weitere Aktionssequenz A angedeutet, die aus der Datenbank DB stammt und auch zur Initialisierung verwendet wird.
-
Die Suche gemäß der Teilchenschwarmoptimierung wird bei einer Anzahl von Start-Aktionssequenzen begonnen. Zur Bestimmung der Start-Aktionssequenzen werden die entsprechenden Aktionen der Aktionssequenzen A1 und A variiert, wobei hauptsächlich lokale Variationen um die entsprechenden Aktionssequenzen berücksichtigt werden. Dies wird in einer bevorzugten Ausführungsform durch eine Wahrscheinlichkeitsfunktion erreicht, wonach größere Variationen der einzelnen Aktionen in der entsprechenden Aktionssequenz umso unwahrscheinlicher werden. Gegebenenfalls kann auch eine entsprechende Metrik im Raum der Aktionssequenzen festgelegt sein, über welche die Größe einer Variation zwischen variierter und nicht-variierter Aktionssequenz festgelegt ist. Wiederum mit einem entsprechenden Wahrscheinlichkeitsmaß werden dann Aktionssequenzen mit kleineren Variationen bevorzugt. Gegebenenfalls können auch harte Schwellwerte der Variationen festgelegt werden, die nicht überschritten werden dürfen. Auf diese Weise wird sichergestellt, dass das schwarmbasierte Optimierungsverfahren seine Suche lokal um die bekannten Aktionssequenzen konzentriert, so dass verbesserte Aktionssequenzen im Echtzeitbetrieb des technischen Systems bestimmt werden können.
-
In dem Szenario der 1 wird schließlich eine zweite Aktionssequenz A2 gefunden, welche durch eine strichpunktierte Linie im Diagramm DI angedeutet ist. Diese Aktionssequenz weist ein höheres Gütemaß RE als die ursprüngliche erste Aktionssequenz A1 auf. Wie durch den Pfeil P3 angedeutet, wird diese Aktionssequenz dann in der Datenbank DB gespeichert und anschließend das technisches System basierend auf dieser Aktionssequenz gesteuert, indem zu entsprechenden Betriebszeitpunkten die Aktionen gemäß dieser Aktionssequenz ausgeführt werden.
-
In einer bevorzugten Ausführungsform werden ferner im Falle, dass genügend Rechenzeit zur Verfügung steht, bestimmte, zuvor durchgeführte schwarmbasierte Optimierungsläufe nochmals fortgesetzt, wobei in diesem Fall die Variation der Aktionssequenzen zur Bestimmung der Start-Aktionssequenzen nicht mehr beschränkt bzw. über eine Wahrscheinlichkeitsfunktion priorisiert wird. Insbesondere werden dabei die schwarmbasierten Optimierungsverfahren für solche Zustände des technischen Systems fortgesetzt, welche häufig zuvor eingenommen wurden bzw. bei denen eine große Diskrepanz zwischen der ermittelten zweiten Aktionssequenz und der ersten Aktionssequenz bestand. Auf diese Weise kann das Optimierungsverfahren weiter verbessert werden. Wird dabei eine nochmals bessere zweite Aktionssequenz gefunden, wird diese in der Datenbank DB gespeichert und ersetzt die vormals gefundene zweite Aktionssequenz.
-
2 zeigt eine spezielle Ausführungsform des Verfahrens der 1, bei der das neuronale Netz NN, mit dem die erste Aktionssequenz bestimmt wird, in vorbestimmten Zeitabständen weiter gelernt wird. Im linken Teil der 2 ist das herkömmliche Lernen LE1 des neuronalen Netzes NN wiedergegeben, welches im Vorfeld durchgeführt wird, um hierdurch eine Aktionsauswahlregel zur Bestimmung entsprechender erster Aktionssequenzen zu erhalten. Dabei sind von dem Netz als Eingangsgrößen einfließende Zustände s des technischen Systems sowie die daraus ermittelte Aktionssequenz a und entsprechende Bewertungen in der Form von Targets t1, t2, ..., tn angedeutet. Das neuronale Netz wird in Bezug auf eine maximale Summe der Bewertungen gelernt. Der Rest des Netzes ist lediglich schematisch durch eine Ellipse E wiedergegeben. Zum Lernen des Netzes NN werden Trainingsdaten aus entsprechenden Zuständen und Aktionen verwendet, welche das technische System eingenommen hat. Das Lernverfahren ist dabei ein bestärkendes Lernverfahren (sog. Reinforcement Learning).
-
Im rechten Teil der 2 ist nunmehr eine Abwandlung des Lernverfahrens LE1 gezeigt, welches mit LE2 bezeichnet ist und in regelmäßigen Abständen im Rahmen der hier beschriebenen Ausführungsform durchgeführt wird. Dabei werden neben den ursprünglichen Trainingsdaten, mit denen das Netz NN gemäß dem Lernverfahren LE1 gelernt wurde, weitere Trainingsdaten berücksichtigt, die sich aus Datensätzen zusammensetzen, welche die Aktionssequenzen a ~ und die Zustände s ~ umfassen. Die Aktionssequenzen a ~ sind dabei diejenigen Aktionssequenzen, die im Verfahren der 1 schlussendlich auf das technische System angewendet wurden. Die Zustände s ~ sind die bei der Ausführung der Aktionen der Sequenz a ~ eingenommenen Zustände des technischen Systems. Im Rahmen des Lernens LE2 werden nur die mit C bezeichneten Gewichtungsmatrizen variiert. Die restlichen Gewichtungsmatrizen werden auf die Identität gesetzt.
-
Über das Neuron f wird die Funktion f(λ, s, s ~) = λs + (1 – λ)s ~ realisiert. Dabei wird λ = 1 verwendet, wenn der beim Lernen verwendete Datensatz aus den ursprünglichen Trainingsdaten stammt. Demgegenüber wird λ = 0 verwendet, wenn der Datensatz aus den weiteren Trainingsdaten stammt und somit den Zustand s ~ und die entsprechende Aktionssequenz a ~ repräsentiert. Über den Parameter λ wird erreicht, dass immer dann, wenn ein Datensatz aus den weiteren Trainingsdaten verwendet wird, das neuronale Netz nicht mehr im Hinblick auf die Targets t1, ..., tn bezüglich hoher Bewertungen optimiert wird, denn für λ = 0 werden die entsprechende Targets t ~1, ..., t ~n auf 0 gesetzt. Dies
-
wird durch die entsprechenden Multiplikationsknoten M verdeutlicht, welche den Targets t1, t2, ..., tn nachgeschaltet sind. Durch die Funktion f bzw. den Multiplikationsknoten M, der der Aktion a nachgeschaltet ist, wird dabei erreicht, dass die Trainingsdaten s ~ und a ~ der weiteren Trainingsdaten in das neuronale Netz einfließen. Stammt demgegenüber ein Datensatz der Trainingsdaten aus den ursprünglichen Trainingsdaten, wird λ = 1 gesetzt, woraufhin das Lernverfahren dem ursprünglichen Lernverfahren LE1 entspricht.
-
Mit dem soeben beschriebenen Lernverfahren LE2 wird das neuronale Netz für weitere Trainingsdaten, welche verbesserte Aktionssequenzen darstellen, im Hinblick darauf optimiert, dass eine gute Übereinstimmung der vom Netz ausgegebenen Aktionssequenz mit der Aktionssequenz a ~ der weiteren Trainingsdaten vorliegt. Auf diese Weise wird die im Rahmen des Verfahrens erzeugte Ausgabe des neuronalen Netzes immer weiter verbessert.
-
Die im Vorangegangenen beschriebenen Ausführungsformen des erfindungsgemäßen Verfahrens weisen eine Reihe von Vorteilen auf. Insbesondere kann eine mit einem datengetriebenen Modell gelernte Aktionsauswahlregel in Echtzeit während des Betriebs des technischen Systems durch die Kombination mit einem numerischen Optimierungsverfahren und insbesondere einer Teilchenschwarmoptimierung verbessert werden, wobei durch eine lokale Variation entsprechender Aktionssequenzen sichergestellt ist, dass für das numerische Optimierungsverfahren wenig Rechenzeit benötigt wird.
-
Literaturverzeichnis:
-
- [1] DE 10 2007 001 025 A1
- [2] DE 10 2008 020 379 A1
- [3] Hentschel, Sanders, „An efficient algorithm for optimizing adaptive quantum metrology processes", Physical Review Letters 107, 233601, 2011
- [4] J. Kennedy, R. C. Eberhart, and Y. Shi, "A new optimizer using particle swarm theory", Proceedings of the Sixth International Symposium on Micro Machine and Human Science, pp. 39–43, 1995
- [5] A. Banks, J. Vincent, C. Anyakoha, „A review of particle swarm optimization. Part I: background and development", Natural Computing, Springer Netherlands, Volume 6, Issue 4 (2007), pp 467–484
- [6] A. Banks, J. Vincent, C. Anyakoha, „A review of particle swarm optimization. Part II: hybridisation, combinatorial, multicriteria and constrained optimization, and indicative applications", Natural Computing, Springer Netherlands, Volume 7, Issue 1 (2008), pp 109–124
- [7] D.M. Mukhopadhyay, M.O. Balitanas, A. Farkhod, SH Jeon, D. Bhattacharyya, "Genetic algorithm: A Tutorial Review", International Journal of Grid and Distributed Computing, Vol.2, No.3 (2009)