DE19828528A1 - Expertensystem - Google Patents
ExpertensystemInfo
- Publication number
- DE19828528A1 DE19828528A1 DE19828528A DE19828528A DE19828528A1 DE 19828528 A1 DE19828528 A1 DE 19828528A1 DE 19828528 A DE19828528 A DE 19828528A DE 19828528 A DE19828528 A DE 19828528A DE 19828528 A1 DE19828528 A1 DE 19828528A1
- Authority
- DE
- Germany
- Prior art keywords
- facts
- expert system
- schema
- fact
- variables
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
Die Erfindung ist einzuordnen in das technische Gebiet der Künstlichen Intelligenz und betrifft ein
Expertensystem. Expertensysteme werden zur Beratung bei der Projektierung, Diagnose und Führung
von Systemen, sowie zur Automatisierung technischer Prozeßabläufe eingesetzt. Übliche Experten
systeme enthalten in ihrer Wissensbasis Regeln, deren Bedingung in Form logisch verknüpfter Fakten
erfüllt sein muß, damit die in der Regel spezifizierte Aktion ausgeführt wird. Für übliche regelbasierte
Expertensysteme muß Wissen in Form von Regeln durch Experten formuliert werden, was eine
aufwendige Zusammenarbeit von Prozeß- und Wissensingenieuren erfordert.
[Herrmann, J.: Maschinelles Lernen und wissensbasierte Systeme. Springer 1997]
[Hepper, R.: Entwicklung von Expertensystemen zur Führung verfahrenstechnischer Prozesse am Beispiel von
Mahlanlagen der Zementindustrie. Diss. TU Clausthal 1995].
Fallbasierte Expertensysteme erwerben ihr Wissens durch Eingabe von Beispielen, gelegentlich auch als
Training oder "Vormachen" bezeichnet. Das fallbasierte Schließen wird im Englischen "case-based
reasoning (CBR)" ganannt oder "inductive logic programming (ILP)", wenn der Wissenserwerb durch
Trainieren von Beispielen betont werden soll.
[Puppe, Gappa, Poeck, Bamberger: Wissensbasierte Diagnose- und Informationssysteme. Springer 1996],
[Leake, D.R.(ed): Case-based reasoning. MIT-Press 1996].
Während die formale Logik Grundlage üblicher Expertensysteme ist, werden beim probabilistischen
Schließen Wahrscheinlichkeiten berücksichtigt. Damit wird der Tatsache Rechnung getragen, daß
Meßdaten über die reale Welt mit Unsicherheiten behaftet sind und nur Schlüsse in Form von
Wahrscheinlichkeitsaussagen zulassen. Dies wird gelegentlich etwas unscharf als "fuzzy" bezeichnet.
[SHAFER, G.: The art of causal conjecture. MIT-Press 1996],
[Boelow, Th; Mühlenfeld, E; Nicolaou, M.: Fallbasierte Automatisierung am Beispiel von Verbrennungsprozessen,
Bildverarbeitung und Auge-Hand-Koordination. Automatisierungstechnische Praxis atp 38 1996) 2, S. 50-67].
Alle bekannten Expertensysteme können Schlüsse nur aus Fakten ziehen, die im Kontext der formulierten
Regeln oder der trainierten Fallbeispiele erlernt worden sind. Beispielsweise für die Automatisierung
zeitvarianter Prozesse und für die Sprach- oder Textverarbeitung läßt sich das erforderliche Wissen
jedoch nicht für alle möglichen Fakten in allen möglichen Fällen formulieren oder trainieren. Dieses
Problem wird durch die in Patentanspruch 1 angegebenen Merkmale gelöst, indem das Expertensystem
semantische Relationen ermittelt und sich darauf bei seinem Schlüssen stützt.
Das semantikgestützte Expertensystem erwirbt sein Wissen vorzugsweise, indem Beispiele durch
Experten eingegeben und automatisch in Form von Schemata in der Wissensbasis gespeichert werden.
Erfindungsgemäß besteht ein Schema aus einer Folge von Fakten und Faktvariablen, zwischen denen
durch Analyse der Schnittmengen von Variablenmengen semantische Relationen ermittelt und genutzt
werden, um auch Fakten als schemakonform zu behandeln, für die das Schema nicht formuliert oder
trainiert wurde. Wenn die eingegebenen Fakten schemakonform sind, kann eine eingegebene Kette von
Fakten erfindungsgemäß autonom schemakonform fortgesetzt werden, um eine trainierte Aktionsfolge zu
reproduzieren.
Da das semantikgestützte Expertensystems sein Wissen durch Training erwerben kann und
erfindungsgemäß semantische Relationen nutzt, konnte es bereits für die Übersetzung von nicht erlernten
Texten und die Beantwortung von nicht erlernten Fragen eingesetzt werden. Die mit der Erfindung
erzielten Vorteile liegen generell darin, daß Wissen nicht vollständig formuliert oder trainiert werden muß,
weil dies in vielen Anwendungen nicht mit vertretbarem Aufwand möglich ist.
Ein Ausführungsbeispiel des erfundenen Systems und seiner Komponenten, sowie seine Realisierung
werden im folgenden beschrieben. Die Zeichnungen zeigen die Systemstruktur, die von den
Systemkomponenten verwendeten Datenstrukturen und ein Realisierungsbeispiel durch ein neuronales
Koppelnetz:
Fig. 1 Systemstruktur
Fig. 2 Definition von Fakten und Metafakten
Fig. 3 Einfaches Schema
Fig. 4 Schema mit Variablen
Fig. 5 Mengendarstellung einer semantischen Relation
Fig. 6 Schema mit zweistelligen Prädikaten
Fig. 7 Ablauf der Inferenz mit zweistelligen Prädikaten
Fig. 8 Schemahierarchien
Fig. 9 Realisierung durch ein neuronales Koppelnetz.
Fig. 1 zeigt die Systemstruktur. Ein- und Ausgaben von Terminals, Sensoren und Stellgliedern werden in
einer Datenbasis (Kurzzeitgedächtnis) zwischengespeichert. Die Inferenzkomponente arbeitet nach dem
Prinzip eines nichttrivialen Automaten, dessen Zustand durch probabilistisches Schließen nach einer
Überführungsfunktion akkumulierend aktualisiert wird. Das logische Schließen berücksichtigt Kontext und
Variable im Schema. Das semantische Schließen nutzt semantische Relationen zwischen Variablen von
Schemata. Die Ausgabefunktion trifft bei rein cognitiven Aufgaben diskrete Entscheidungen, während sie
bei der Zuordnung kontinuierlicher Stellgrößen gewichtet interpoliert. Die Wissenserwerbskomponente
bildet in Trainingsphasen Schemata, Variable und Hierarchien von Schemata und speichert diese in der
Wissensbasis (Langzeitgedächtnis). Eine nicht näher erläuterte Erklärungskomponente zeigt dem
Bediener, welche Schemata mit welcher Wichtung bei der Inferenz benutzt wurden. Die Realisierung
erfolgt erfindungsgemäß durch Koppelnetzwerke mit elektronischer oder elektromagnetischer Kopplung.
Im Rahmen der optischen Mustererkennung sei der konkrete Fall [in Lage y a ein Objekt Aa zu erkennen,
um fallspezifische Aktionen zur Weichenstellung für gut/schlecht oder zur Steuerung eines Roboters
zuzuordnen. Bei der Analyse eines Bildausschnitts segmentiere die Bildsensorik ein Bildelement und
ermittle dazu einen Meßvektor x der Merkmale der Leuchtdichteverteilung des Bildelements enthält.
Die Klassifizierung von x, z. B. durch ein Neuronales Netz, einen Abstandsklassifikator oder, wenn ein
hinreichend großes Kollektiv von Lernrepräsentanten verfügbar ist, durch einen nichtlinearen Bayes-
Klassifikator liefere die a-posteriori-Wahrscheinlichkeit p(bk/x) dafür, daß das Bildelement zur
Formklasse bk gehört, und die Lage Y k {Ort und Richtung} des Bildelements. Y k ist der Stellvektor der
Sensormotorik, wenn der Bildsensor das Bildelement erfaßt. Gespeichert wird y k = Y k - y a die Lage des
Bildelements bk relativ zur Objektlage y a. Das Sensorsystem liefert also über ein Bildelement die
Meldung [y k,bk], die besagt: Die Handlung y k ergibt die Wahrnehmung bk mit p(bk/x).
Im Training werden diese Meldungen als Fakten zu jedem Fall in einer Baumstruktur nach Fig. 2
gespeichert. Eine Meldung über Form bk und Lage y k eines einzigen Bildelements identifiziert i.a. ein
Objekt Aa nicht. Daher ist ein nicht trivialer Automat erforderlich, der im Folgenden definiert wird:
- - Zustandsvariablen p([y a,Aa]) für alle Fälle [y a,Aa]
- - Überführungsfunktion: akkumulierende Hypothesenbildung bottom-up:
p([y a, Aa]): = s p([y a,Aa]) + (1-s) p([y a,Aa])/[bk, y k]) p(bk/x), y a: = s y a + (1-s) (Y k - y k). s ist ein Schwächungsfaktor mit 0 < s < 1, der zusammen mit der Abtastzeit die Zeitkonstante der Adaption an die Variabilität des Prozesses bestimmt. - - Ausgabefunktion: Hypothesengesteuerter Test top-down: Auswahl und Test des Bildelements, von
dessen Verifizierung die stärkste Verringerung der Entropie von p([y a,Aa]) erwartet wird.
Der Test wird gesteuert durch Y k = y a + y k. - - Abbruch: Wenn die Entropie als Gütemaß eine Schwelle unterschreitet, dann wird für die Hypothese [y a,Aa] mit Max {p([y a,Aa])} entschieden.
In der KI beginnt sich die Erkenntnis durchzusetzen, daß im Gehirn verarbeitbares Wissen durch
Interaktion mit der Welt entsteht. Auch ein Erkennungsprozeß ist eine Handlungs/Wahrnehmungs-Kette.
Rein sensormotorische Handlungen verändern die Welt nicht, ihre Reihenfolge ist daher beliebig, die
Sprache des Automaten ist kontextfrei, und die Datenstruktur ist ein Baum.
Mit geeigneter Bildvorverarbeitung erkennt das Expertensystem durch probabilistisches Schließen
beliebig geformte Gußteile auf der ebenen Fläche von Förderbändern oder Paletten mit einer Fehlerrate
< 0,03% auch bei Berührung von Teilen, wenn sich bei Überlagerungen keine Schräglagen von mehr als
8° ergeben.
Viele verfahrenstechnischen Prozesse werden durch zeitvariante Parameter von Rohstoffen, Werkzeugen
und Betriebsmitteln bestimmt. Das probabilistische Schließen wurde im Labor bereits eingesetzt, um
dynamische Prozesse adaptiv zu regeln. Im Folgenden wird aber vorausgesetzt, daß der zu steuernde
Prozeß, z. B. die Ausspeicherung aus einem Erdgas-Untertage-Speicher, quasistatisch zu behandeln sei.
Das Abklingen von Einschwingvorgängen kann also abgewartet werden.
Alle Stellgrößen eines Teilprozessen werden zu einem Stellvektor y k zusammengefaßt, der generell eine
Handlung spezifiziert, während Meßvektoren x k als Wahrnehmungen bk klassifiziert werden. Fälle Aa sind
gekennzeichnet durch die fallspezifisch optimalen Prozeßdaten [y a,ba]. Zu den Fällen liegen Erfahrungen
p([y a,Aa]/[yk,bk]) nicht nur für die optimalen Prozeßdaten vor.
Die Struktur des Trainierbaren Automaten unterscheidet sich von Abschnitt 2.1.1 nur in der
Ausgabefunktion: Zwischen optimalen y a wird mit p([y a,Aa]) gewichtet interpoliert.
Zur Berücksichtigung von Unschärfen werden Wahrscheinlichkeiten ermittelt, und die Inferenz erfolgt in
Anlehnung an die Dempster-Shafer Theorie probabilistisch. Zur Sprachverarbeitung akkumuliert die
Überführungsfunktion während des Parsens eines Satzes Hypothesenwichtungen ohne die alten
Wichtungen vorher zu schwächen. Eine andere Möglichkeit bieten fuzzy Methoden, die kontinuierliche
Größen fuzzyfizieren, indem sie ihnen nach vorgegebenen Zugehörigkeitsfunktionen Zugehörigkeitsmaße
zu Fuzzy Sets zuordnen, die bei der Inferenz durch Fuzzy Logik sowie bei der Interpolation von
Ausgangsgrößen durch Defuzzyfizierung berücksichtigt werden. Dieses sind Beispiele für die vielen aus
der Literatur bekannten Verfahren, die Wahrscheinlichkeiten, Ähnlichkeits- oder Zugehörigkeitsmaße
berücksichtigen, um unsicheren, unscharfen Eingangsdaten geeignete Entscheidungen, Handlungen oder
andere Ausgangsdaten zu assoziieren. Verallgemeinernd ist hierfür der Begriff "fuzzy" üblich geworden.
Entsprechend vielfältig sind die Möglichkeiten, zum probabilistischen Schließen in neuronalen Netzwerken
Wahrscheinlichkeiten durch die Stärke neuronaler Erregungen zu repräsentieren und über wichtende
Synapsen zu akkumulierten.
Durch Auge-Hand-Koordination sei folgender Ablauf zu steuern: Aus der Endbehandlung (Trocknung,
Härtung, Reinigung) kommen unsortiert und ungeordnet Teile, z. B. Glas1, und müssen von einem Roboter
teilespezifisch in einen Karton oder auf Palette abgelegt werden.
Das probabilistische Schließen und die dafür berücksichtigten und akkumulierten Wahrscheinlichkeiten
werden erfindungsgemäß gemeinsam mit den im Folgenden beschriebenen Inferenzkomponenten
benutzt, werden aber zur Vereinfachung der Darstellung im Folgenden nur noch ausnahmsweise erwähnt.
p([y a,Aa]) wird dann zu einer Aussage, die Handlung und Wahrnehmung umfaßt, z. B.: "sehe (Glas1)", also:
bewege das Auge in Lage1 und erkenne das Objekt Glas1, die als Weisung an die Sensor-Motorik
übergeben, von der Sensormotorik als Meldung an die Realität angepaßt zurückgegeben wird und als
Fakt eines Schemas in der Wissensbasis gespeichert wird.
Da Roboterhandlungen die Welt verändern, ist ihre Reihenfolge wichtig, und Aussagen müssen als Kette,
Schema genannt, gespeichert und kontextsensitiv gespart werden. Die trainierten Schemata bestehen
aus einer Nummer si, die das Schema identifiziert, und einer Handlung/Wahrnehmungs-Kette. Für die
Steuerungsaufgabe aus 2.2.1 wird das Schema in Fig. 3 dargestellt.
Die Inferenz erfolgt zyklisch: Der Nachfolger des gegenwärtigen Fakts im wahrscheinlichsten Schema
wird als Weisung an die Sensor-Motorik übergeben. Wenn nach Ausführung der Weisung die Meldung
genannte Aussage weisungskonform ist, wird die Wahrscheinlichkeit des bestätigten Schemas im
Automatenzustand erhöht, wofür vereinfachend p(si): = p(si) + p(si/Meldung) geschrieben werden kann.
Die Auge-Hand-Koordination wurde am Beispiel der Handhabung von Steckergehäusen auf einer
Hannover-Messe vorgeführt.
Nachdem das Schema s1 für Glas1 trainiert wurde, sei für Glas2, das visuell und taktil anders
wahrgenommen wird, das gleiche Schema zu trainieren. In Fig. 4 wird das Objekt Glas1 in s1 zu einem
Element einer Menge G1 von Variablen:
s1: sehe(g1) greife(g1) sehe(Karton) lege(0);
g1 ⊃ G1 = {Glas1, Glas2}.
s1: sehe(g1) greife(g1) sehe(Karton) lege(0);
g1 ⊃ G1 = {Glas1, Glas2}.
Um Gläser auf Paletten zu stellen, wird ein neues Schema trainiert:
s2: sehe(g2) greife(g2) sehe(Palette) lege(0);
g2 ⊃ G2 = {Glas1, Glas2, Glas3, Glas4}.
s2: sehe(g2) greife(g2) sehe(Palette) lege(0);
g2 ⊃ G2 = {Glas1, Glas2, Glas3, Glas4}.
So weit trainiert wurde gilt s1(g) → s2(g) und wahrscheinlich auch s2(g) → s1(g). Daher kann
wahrscheinlich Glas3 und Glas4 nach s1 in Kartons eingelegt werden, ohne dies trainiert zu haben. Diese
Schlußweise wird im Folgenden generalisiert und quantifiziert.
Wenn für eine Menge das Schema s1 gilt und für p % dieser Menge auch das Schema s2 gilt, dann ist p
die Wahrscheinlichkeit dafür, daß s2 für ein beliebiges Element dieser Menge gilt.
Es werde s(g) geschrieben wird, wenn das Schema s für g gilt, bzw. s(G), wenn s für die Menge G von
Werten einer Variablen gilt. Damit lautet das
Korrespondenzprinzip: Wenn s1(G1) und für p % aller g1 ⊃ G1 auch s2(g1),
dann ist für ein beliebiges g ⊃ G1 die Wahrscheinlichkeit p(s2(g)/s1(g)) = p.
dann ist für ein beliebiges g ⊃ G1 die Wahrscheinlichkeit p(s2(g)/s1(g)) = p.
In Fig. 5 ist dargestellt, daß das Korrespondenzprinzip auf der Analyse von Schnittmengen der Fakt
variablen beruht. Glas3 kann aufgrund des Korrespondenzprinzips mit der Wahrscheinlichkeit p = 50%
nach Schema s1 in Kartons gelegt werden. Wenn diese Korrespondenz genannte Wahrscheinlichkeit
größer als eine vorgegebene Schwelle ist, "korrespondiert" g mit der Variablenmenge Gk, und wird wie ein
Element dieser Menge behandelt. Dies ist auf mehrere Variable eines Schemas anwendbar. Die
Korrespondenz kann bei der Inferenz auf verschiedene Weise wichtend berücksichtigt werden. Zu einer
Variablen lassen sich mit negativer Wichtung auch Werte trainieren, für die sich das Schema als nicht
geeignet oder nicht gültig erwiesen hat.
Ein Beispiel zur Realisierung des Korrespondenzprinzips mit einem neuronalen Koppelnetz wird in
Abschnitt 7 beschrieben und in Fig. 9 dargestellt. Im Folgenden werden Anwendungsbeispiele
beschrieben.
Zu Demonstrationszwecken wurde trainiert, in Anlehnung an Schlüsse der syllogistischen Logik auf Fragen
zu antworten:
"wenn Du gefragt wirst . . . , | |
dann antworte . . .". | |
ist {Sokrates, Plato} ein Mensch? | ja {Sokrates, er} ist ein Mensch |
muß {Sokrates, Xantippe} sterben? | ja {Sokrates, sie} muß sterben |
ist {Zeus, Hera} ein Mensch? | nein {Zeus, sie} ist ein Gott |
muß {Zeus, Apollo} sterben? | nein {Zeus, er} ist unsterblich |
Unter Nutzung des obigen Korrespondenzprinzips antwortet das Expertensystem auch auf die Fragen, die für
die Objekte der Fragen nicht erlernt worden sind:
muß Plato sterben? | ja er muß sterben |
ist Xantippe ein Mensch? | ja sie ist ein Mensch |
muß Hera sterben? | nein sie ist unsterblich |
ist Apollo ein Mensch ? | nein er ist ein Gott |
Wird nachträglich trainiert
ist {Fritz} ein Mensch? | ja {er} ist ein Mensch |
so beantwortet der Automat die Frage
muß Fritz sterben? | ja er muß sterben. |
Das Schema legt die Syntax fest; auch die Syntax der Antwort. Durch die Korrespondenz zwischen den
Objekten der Prädikate "ist ein Mensch" und "muß sterben" wird eine semantische Relation zwischen
diesen Prädikaten hergestellt.
Generalisierungen, wie "alle s1 sind s2" und andere Aussagen der Scholastik sind in der Wissensbasis des
Trainierbaren Automaten statistisch enthalten und sind bei der Inferenz nutzbar. Damit diese Aussagen
explizit kommunizierbar werden, muß das Schema einer expliziten Formulierung von Generalisierungen
trainiert werden. Damit können generalisierende Aussagen generiert und einem anderen System, das
man als Schüler bezeichnen könnte, statt Einzelerfahrungen verbal übergeben werden. Der Schüler kann
dann diese Aussagen nutzen, ohne die zugrunde liegenden Erfahrungen selbst machen zu müssen.
Es ist noch zu erläutern, wie im Training Faktvariablen eines vorhandenen Schemas gebildet werden.
Dazu wurde bereits gesagt, daß eine Aussage, z. B. "sehe(Glas1)", Handlung und Wahrnehmung umfaßt.
Sie wird als Weisung an die Sensor-Motorik übergeben, von der Sensor-Motorik als Meldung an die
Realität angepaßt zurückgegeben und als Fakt eines Schemas in der Wissensbasis gespeichert.
Unterscheidet sich eine zu erlernende Meldungskette von einem vorhandenen Schema s nur in einer
Meldung, so wird dieses Fakt im Schema zur Variablen. Die neue Meldung wird mit dem im Schema
bereits vorhandenen Fakt verzeigert bzw. in einen Ring bereits verzeigerter Werte der Variablen
aufgenommen. In konnektionistischer Implementierung werden die den Fakten zugeordneten Neuronen
verkoppelt.
Unterscheidet sich eine zu erlernende Meldungskette von einem vorhandenen Schema s nur durch eine
zusätzliche Meldung, so wird diese als zusätzliche Variable in das Schema aufgenommen und in der eben
geschilderten Weise verzeigert (Fig. 6). Im allgemeinen wird man zulassen, daß keiner oder mehrere
Werte einer zusätzlichen Variablen in einer Meldungskette auftreten. Entsprechendes gilt für
Partnervariablen nach 3.2. Die folgenden Beschreibung betrachtet nur alternative Variablen und keine
zusätzlichen Variablen.
Unterscheidet sich eine zu erlernende Meldungskette von einem vorhandenen Schema s in 2 Meldungen
unterschiedlicher Organe {z. B. Auge, Hand}, so wird jede der beiden Meldungen in einen Variablenring
aufgenommen. Außerdem werden beide Meldungen mit einander als Partner verkoppelt bzw. verzeigert,
wie auch die beiden zugehörigen Fakten im Schema.
Bei Einführung des Korrespondenzprinzips wurde das Schema gebildet:
s1: sehe(g1) greife(g1) sehe(Karton) lege(0);
g ⊃ G1 = {Glas1, Glas2}.
s1: sehe(g1) greife(g1) sehe(Karton) lege(0);
g ⊃ G1 = {Glas1, Glas2}.
Die eine Aussage über g1 beeinhaltet eine Meldung des Auges, die andere eine Meldung der Hand, wobei
visuelle und taktile Wahrnehmungen des gleichen Objekts natürlich durch verschiedene Symbole
repräsentiert werden, so daß sich die beiden Meldungen unterscheiden und als Variablen entsprechend
zu verzeigern sind. Ein Schema kann beliebig viele Partnervariablen enthalten.
Wenn eine Meldung ein Fakt eines Schemas bestätigt hat, wird die im darauf folgenden Fakt des
Schemas enthaltene Weisung aktiviert. Mit fortschreitender Abarbeitung des Schemas müssen also
immer mehr logische Relationen erfüllt sein, damit eine schemakonforme Weisung produziert wird. Wird
die logische Verknüpfung durch Junktoren beschrieben, so ergibt sich in dem Beispielschema
nach 1. Meldung: WENN sehe(Glas1), DANN greife(Glas1); WENN sehe(Glas2), DANN greife(Glas2);
nach 3. Meldung: WENN [(sehe(Glas1) UND greife(Glas1)) ODER (sehe(Glas2) UND greife(Glas2))] UND sehe(Karton), DANN lege(0).
nach 1. Meldung: WENN sehe(Glas1), DANN greife(Glas1); WENN sehe(Glas2), DANN greife(Glas2);
nach 3. Meldung: WENN [(sehe(Glas1) UND greife(Glas1)) ODER (sehe(Glas2) UND greife(Glas2))] UND sehe(Karton), DANN lege(0).
Generell sind alle Meldungen eines Schemas durch UND verknüpft, alle Variablen einer Meldung durch
ODER, wobei Partnervariablen ggf. mit einander UND-verknüpft sind. Schemata mit gleichem Aktionsteil
sind disjunktiv verknüpft.
Ist eine Meldung Variable eines Schemas, so werden die Partner der Meldung und des Fakts im Schema
in eine Substitutionsliste eingetragen, und der Meldungspartner wird substituiert, sobald der
Schemapartner erwartet wird. Nach visueller Wahrnehmung in sehe(g) wird also zur Steuerung des
Greifvorgangs die taktile Partnervariable in greife(g) substituiert. Dies geschieht auch, wenn die Meldung
keine Variable des Schemas ist, aber mit dem Fakt im Schema korrespondiert.
Fig. 7 zeigt das Parsen von Schema s10 nach der 3. Meldung, formuliert mit Junktoren:
wenn ((k1 und k2 und k3) oder (k5 und k2 und k6), dann k4.
wenn ((k1 und k2 und k3) oder (k5 und k2 und k6), dann k4.
Eine Meldung, die mit der Variablenmenge eines Fakts im Schema korrespondiert, wird bei der Inferenz
wie ein Element dieser Menge behandelt, wobei ggf. der Partner dieser korrespondierenden Meldung
substituiert wird.
Beispiel: Es wurde Schema e1 bis e4 trainiert:
Eingabe hören: | |
Ausgabe sagen: | |
e1 the {market, station} | der {Markt, Bahnhof} |
e2 the {church, opera} | die {Kirche, Oper} |
e3 to the {port, station} | zum {Hafen, Bahnhof} |
e4 to the {church, city} | zur {Kirche, Stadt} |
Danach werden auch nicht erlernte Artikel richtig zugeordnet:
the port | der Hafen |
to the opera | zur Oper |
Wird nachträglich trainiert
+e3 to the {airport} | zum {Flughafen}, |
so übersetzt der trainierbare Automat auch
the airport | der Flughafen |
In e3 der Fig. 8 sind Fakten des gleichen Organs zu Subschemata zusammengefaßt. Treten Ketten eines
Subschemas in einem neu zu erlernenden Schema auf, so werden sie durch dessen Metafakt substituiert.
Diese Hierarchiebildung kann zu mehreren Ebenen fortgesetzt werden. MetaFakten werden auf gleiche
Weise zu Variablen, wie terminale Fakten, und ihre Korrespondenz wird ebenso genutzt.
Wenn ein bisher unbekannter Satz eingegeben wird, ergeben sich in den vielen Hierarchieebenen
vielfältige Möglichkeiten zur Bildung neuer Variablen. Daher wird in einem Suchbaum das konformste
Schema gesucht, und ggF. durch Variable oder neue Werten von Variablen ergänzt. Der Suchbaum
gestattet die Verarbeitung alternativer Meldungen, z. B. von mehr oder weniger wahrscheinlichen
Phonemen bei der Spracherkennung.
Die Nutzung von Korrespondenzen zweistelliger Relationen wird am Beispiel der Textübersetzung
verdeutlicht. Die sprachliche Vielfalt wird dadurch begrenzt, daß nur "Fragen nach dem Weg" in Form
reiner Hauptsätze zugelassen werden. Nachdem die Übersetzungen verschieden formulierter "Fragen
nach dem Weg" trainiert worden waren, wurde die Übersetzung der Frage "komme ich hier {zum Hafen,
zur Stadt}" nur für die beiden genannten Metavariablen trainiert, wird aber auch für andere Variablen {zu
einem Friseur, zu einer Toilette, zum nächsten Arzt, zum Eaton Place, zur Liverpool Street}, die im
Kontext anderer Schemata erlernt worden sind, richtig übersetzt. Die beiden letzten Metavariablen des
Beispiels enthalten Variable, die in Deutsch und Englisch identisch sind, so daß hier beliebigen Variablen
identische Partner zugeordnet werden.
Ein Auskunftssystem kann als Auge-Hand-System betrachtet werden, bei der die Hand über Tastatur
Texte und Steuerzeichen eingibt, woraufhin die Datenbank dem Auge Texte darbietet. Der Trainierbare
Automat transformiert natürlichsprachliche Anfragen für das Auskunftssystem in formatierte Eingaben und
wandelt dessen Antwort wiederum in natürliche Sprache.
Hier wurde die sprachliche Vielfalt auf Fragen nach Abflügen vom Flughafen Hannover begrenzt. Auf die
Frage "wie komme ich bis 20 Uhr 30 nach London?" antwortet der Automat "um 18 Uhr 35 startet
Lufthansa Flug 4570 nach London". Zusatzfragen, z. B. nach der Ankunftszeit sind möglich. Zahlen
werden als identische Partner verarbeitet.
Fig. 9 zeigt eine konnektionistische Realisierung durch ein neuronales Koppelnetz. Die eingegebene
Meldung, bestehend aus Handlung und Wahrnehmung, wird durch ein übliches Neuronales Netz
klassifiziert und Fakt genannt. Das Neuronale Netz wurde dazu nach dem Backpropagation-Algorithmus
trainiert. Die Erregung seiner Ausgangsneuronen repräsentiert im 1-aus-n-Code die a-posteriori-
Wahrscheinlichkeiten ähnlicher Fakten. In dem anschließenden Koppelnetz sind die einzelnen Neuronen
durch Kreise dargestellt, die je 1 Fakt repräsentieren und die entsprechend ihrer Erregung und der Stärke
der neuronalen Kopplung das in Fig. 9 durch einen Pfeil angeschlossene Neuron erregen.
In Fig. 9 wird die Aktivierung nur eines Neurons, das eines der dem Eingang zugeordneten Fakten
repräsentiert, verfolgt. Seine Erregung aktiviert die Neuronen, die das gleiche Fakt in anderen Schemata
repräsentieren, so daß diese Neuronen alle feuern. Jedes dieser Neuronen verstärkt durch direkte
Kopplung akkumulierend die Aktivierung des jeweils zum Schema gehörenden Metafakts und adaptiert
dadurch unmittelbar den Automatenzustand.
Jedes Neuron, das die dem Eingang zugeordneten gleichen Fakten in verschiedenen Schemata
repräsentiert, aktiviert außerdem ggf. die Neuronen der Variablenmenge, zu der es gehört. Diese erregen
die Neuronen gleicher Fakten in anderen, korrespondierenden Variablenmengen, die wiederum
akkumulierend das Metafakt des korrespondierenden Schemas aktivieren und damit indirekt zur Adaption
des Automatenzustands beitragen.
In einem neuronalen Koppelnetz laufen viele Vorgänge parallel ab, so daß die gesamte Verarbeitungszeit
niedrig bleibt. Die elektronische Realisierung wird jedoch mit wachsender Zahl von Neuronen und
Kopplungen sehr aufwendig und erfordert dann technologische Fortentwicklungen. Solche
Fortentwicklungen können auf verschiedenen technologischen Grundlagen basieren. Neben Fortschritten
in der Integrationstechnik von Halbleitern erscheinen Kopplungen durch elektromagnetische
Wellenfelder aussichtsreich.
Ein Ausführungsbeispiel mit wenigen Neuronen und Kopplungen ist durch ein elektronisches Koppelnetz
realisiert worden, stieß aber sehr bald an Aufwandsgrenzen. Daraufhin wurde auch deshalb eine
programmtechnische Realisierung gewählt, weil sie in der Entwicklungsphase strukturelle Veränderungen
erleichtert und schnelle Erprobungen und Erfolgsnachweise ermöglicht. Diese Implementierung kann als
Modell einer gerätetechnischen Realisierung angesehen werden, in der Zeiger durch elektronische,
elektrochemische oder elektrooptische Kopplungen ersetzt werden. Die erfindungsgemäße Realisierung
des Expertensystems durch solche Koppelnetzwerke wird einem Fachmann aufgrund dieser
Patentbeschreibung keine Schwierigkeiten bereiten. Es ist aber davon auszugehen, daß ein Fachmann
dieses Expertensystem beim gegenwärtigen Stand der Technik noch ebenso programmtechnisch
realisieren wird, wie übliche Neuronale Netze.
Das in folgenden beschriebene Ausführungsbeispiel wurde daher durch sequentiell ablaufende
Algorithmen in Pascal programmiert und auf einem PC implementiert. Es arbeitet mit diskreten Symbolen,
die zur Speicheradressierung genutzt werden. Bedeutung erhalten diese Symbole durch ihre Verknüpfung
mit anderen Symbolen über eine Vielfalt von Zeigern, die der Kopplung von Neuronen in einer
konnektionistischen Implementierung durch Koppelnetzwerke oder elektromagnetische Wellenfelder
entspricht. Die Frage der künstlichen Intelligenz, ob Wissen durch Symbole zu repräsentieren ist, oder
nicht, erscheint funktionell ebenso zweitrangig, wie die Frage, ob Daten mit ihren Kopplungen lokal oder
holographisch gestreut zu speichern sind.
In den Patentansprüchen werden einige Begriffe definiert. Diese Definitionen werden hier kurz
zusammengefaßt.
Erfindungsgemäß beschreiben die Aus- und Eingabedaten des Expertensystems sowohl Handlungen, als
auch Wahrnehmungen, umfassen daher sowohl Stell-, als auch Meßdaten, haben gleiches Datenformat
und werden Fakt genannt. Ein Fakt kann nach Art eines Konzepts beliebige Daten, z. B. mehrere
Symbole, kontinuierliche Größen und Zeiger umfassen. Werden Fakten zu Variablen, so können sie
mehrere Werte haben, also verschiedene Daten enthalten. Eine eingegebene Folge von Fakten wird
Kette genannt. Eine erlernte, in der Wissensbasis gespeicherte Folge von Fakten und Faktvariablen heißt
Schema und wird durch ein Metafakt gekennzeichnet. Die Konformität, also die Ähnlichkeit oder
Gleichheit von Fakten ist aufgabenspezifisch durch ein Ähnlichkeits- oder Zugehörigkeitsmaß
quantifizierbar. Ein Kettenfakt kann mit Fakten mehrerer Schemata hinreichend konform sein, also in
mehreren Schemata auftreten.
Das Lernen, also der Wissenserwerb, erfolgt vorzugsweise durch Trainieren von Beispielen. Die
Verarbeitung einer Kette zum Erkennen oder zum Assoziieren von Aktionen heißt Inferenz oder Parsen.
Parsen und Lernen können im Ablauf integriert sein.
Claims (23)
1. Expertensystem, das eine eingegebene ungeordnete oder geordnete Folge, Kette genannt, von
Datenpaketen, Fakten genannt, durch Vergleich mit gespeicherten Faktfolgen, Schemata genannt,
erkennt und geeignete Aktionen assoziieren kann, indem es diese Kette schemakonform fortsetzt,
dadurch gekennzeichnet, daß einige Fakten in Schemata zu Faktvariablen werden, für die in
Lernvorgängen eine Menge möglicher Fakten, Variablenmenge genannt, gespeichert wird, und daß
beim Erkennen oder Assoziieren geprüft wird, ob ein Fakt der eingegebenen Kette zu Fakten aus
Variablenmengen konform bzw. ähnlich ist, die bei schemakonformer Fortsetzung der Kette nicht
erwartet werden, und wie groß die Schnittmenge dieser nicht erwarteten Variablenmengen mit den
erwarteten Variablenmengen ist, um bei hinreichender Größe dieser Schnittmengen die zugehörigen
Schemata in ähnlicher Weise zu behandeln, als sei das Fakt der Kette zu Faktvariablen dieser
Schemata konform, obwohl nur von einer semantischen Relation gesprochen werden kann. Hierbei
können die relativen oder absoluten Größen der jeweiligen Schnittmengen und, durch ein
Ähnlichkeits- oder Zugehörigkeitsmaß, auch Konformitäten quantitativ berücksichtigt werden.
2. Expertensystem nach Anspruch 1, dadurch gekennzeichnet, daß Fakten einer Kette, die in einem
Schema fehlen, als zusätzliche Faktvariable in das Schema aufgenommen werden, wenn die Anzahl
dieser fehlenden Fakten auf wenige, vorzugsweise auf 1 oder 2 Fakten begrenzt ist.
3. Expertensystem nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß die Fakten eines Schemas,
die nicht mit den entsprechenden Fakten einer zu erlernenden Kette konform sind, zu Faktvariablen
des Schemas werden oder in bereits vorhandene Variablenmengen aufgenommen werden, wenn die
Anzahl dieser nicht konformen Fakten auf wenige, vorzugsweise auf 1 oder 2 Fakten begrenzt ist.
4. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß Fakten,
die gemeinsam in einer Kette auftreten und zu verschiedenen Variablenmengen des gleichen
Schemas gehören, im Lernvorgang in diesem Schema als Partner verzeigert oder verkoppelt werden.
Tritt beim Parsen in der Kette ein bestimmtes Fakt einer Variablenmenge auf, so wird erwartet, daß
dessen Partner als Werte der anderen Faktvariablen des Schemas auftreten.
5. Expertensystem nach Anspruch 4, dadurch gekennzeichnet, daß beim Auftreten des ersten Partners
die Werte der übrigen Partner für die jeweiligen Faktvariablen des Schemas festgelegt werden, so daß
beim Parsen ohne weitere Eingaben eine bis dahin schemakonforme Kette stets mit dem passenden
Partner fortgesetzt werden kann.
6. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß Teile
einer Kette, die bereits als selbständiges Schema erlernt worden sind, in einem Schema durch das
Metafakt substituiert werden, welches das Teilschema repräsentiert, und/oder daß Teile einer Kette,
die nicht in ein Schema passen, beim Lernen zu einem eigenständigen Schema zusammengefaßt
werden, dessen Metafakt in das Schema aufgenommen wird.
7. Expertensystem nach Anspruch 6 oder einem der vorangegangenen Ansprüche, dadurch
gekennzeichnet, daß durch Iteration der Repräsentation von Teilschemata, auch wenn diese bereits
Metafakte in ihrer terminalen Ebene enthalten, durch deren Metafakte eine hierarchische
Graphenstruktur generiert wird.
8. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß
semantische Relationen nach Anspruch 1 auch für Partner nach Anspruch 4 oder 5 und/oder in
hierarchischen Graphenstrukturen nach Anspruch 6 oder 7 genutzt werden.
9. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß im
Verlauf der Eingabe von Fakten einer Kette für alle oder mehrere der hierzu passenden bzw.
konformen Schemahypothesen Datenbasen gebildet und verwaltet werden, die Angaben zum
bisherigen Verlauf und zur weiteren Steuerung des Parsens enthalten, um das optimal passende
Schema beispielsweise in einer Baumsuche zu finden und assoziativ fortzusetzen.
10. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß für
Partner gemäß Anspruch 4, die in zwei oder mehr Fakten einer Folge den gleichen Wert haben, ein
beliebiger Wert eingesetzt werden kann, der dann für alle Partner stets gleich sein muß und beim
Parsen nach Anspruch 5 festgelegt werden kann.
11. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß Fakten
mit Wahrscheinlichkeiten oder Zugehörigkeitsmaßen gewichtet und hieraus Wichtungen für
Schemahypothesen berechnet werden, die den Ablauf des Parsens steuern und/oder zur gewichteten
Interpolation bei der Ausgabe kontinuierlicher Aktionen sowie zur Selektion diskreter Aktionen genutzt
werden, wobei zur Steuerung kognitive Prozesse vorzugsweise eine Minimierung der Entropie der
Hypothesenwahrscheinlichkeiten angestrebt wird.
12. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß
eingegeben Prozeßdaten durch einen Klassifikator, beispielsweise ein Neuronales Netz, und
eingegeben Textdaten oder anderen Symbolen durch Tabellen oder einen Algorithmus, z. B. Hash,
eine Kennung zugewiesen wird, die in einer konnektionistischen Realisierung Neuronen kennzeichnet,
während sie in einer algorithmischen (progammtechnischen) Implementierung zur Adressierung des
Fakts in der Wissensbasis dient.
13. Expertensystem nach Anspruch 12 oder einem der vorangegangenen Ansprüche, dadurch
gekennzeichnet, daß zu den Fakten Zeiger auf gleiche Fakten in anderen Schemata, auf im Schema
vorangehende, nachfolgende, übergeordnete, untergeordnete Fakten und/oder Partner des Fakts,
sowie auf andere Fakten der gleichen Variablenmenge vorhanden sind, wobei diese Verzeigerungen in
Ketten oder Ringen erfolgen können.
14. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß in einer
konnektionistischen Realisierung, z. B. durch neuronale Netzwerke oder holographische Interferenzen,
Kopplungen vorhanden sind, die der Verzeigerung nach Anspruch 13 entsprechen.
15. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß die
terminalen Fakten Daten über Form und Lage von Konturelementen eines Bildes enthalten, wobei die
Reihenfolge der Fakten in den Schemata unerheblich sein kann (kontextfrei), und hieraus durch
erfindungsgemäßes Parsen hypothesengesteuert Art und Lage von Objekten oder anderen
Bildmustern ermittelt wird.
16. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß die
terminalen Fakten Meß- und/oder Stelldaten enthalten, womit Schemata durch Trainieren von
Beispielen einer Prozeßführung kontextfrei oder kontextsensitiv gebildet und entsprechend geparst
werden, um Hypothesen über den aktuellen Betriebsfall des Prozesses zu bilden und ihn automatisch
in ähnlicher Weise zu führen, wie dies in ähnlichen Fällen trainiert worden ist.
17. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß die
terminalen Fakten Wahrnehmungen und Handlungen verschiedener Sensor-Motor-Systeme enthalten,
um beispielsweise die Auge-Hand-Koordination zur Robotersteuerung zu trainieren und zu
automatisieren, wobei semantische Relationen nach Anspruch 1 genutzt werden können, um Objekte,
für die eine bestimmte Handhabung nicht trainiert worden ist, dennoch nach einem hierfür mit anderen
Objekten trainierten Schema zu handhaben.
18. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß die
terminalen Fakten Daten über Phoneme enthalten, um die Erkennung natürlicher Sprache zu
trainieren und zu automatisieren.
19. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß die
terminalen Fakten Textworte repräsentieren, die im Kontext von Sätzen erfindungsgemäß trainiert und
geparst werden, was beispielsweise die Fortsetzung eingegebener Fragen, Sätze oder Satzteile durch
eine Antwort oder die Übersetzung in eine andere Sprache unter Nutzung semantischer Relationen
nach Anspruch 1 auch dann ermöglicht, wenn die Eingabe Teile enthält, die nicht im Kontext der als
passend erkannten Schemata erlernt worden sind.
20. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß die
terminalen Fakten Ein- und Ausgaben verschiedener peripherer Systeme enthalten, um Sprach- bzw.
Text-Ein-/Ausgabe, Datenbanken (z. B. Auskunftssysteme), die Bedienung von Computern oder
kommerzieller Elektronik (z. B. Videorecorder), Bilderkennung und/oder Prozeßsteuerungen zu
integrieren und zu koordinieren.
21. Expertensystem nach Anspruch 2 oder einem der vorangegangenen Ansprüche, dadurch
gekennzeichnet, daß ein zusätzliches Fakt, durch das sich eine zu erlernende Kette von einem
vorhandenen Schema unterscheidet, als zusätzliche Faktvariable in das Schema aufgenommen und
entsprechend verzeigert wird, wobei zugelassen wird, daß keiner oder mehrere Werte einer
zusätzlichen Faltvariablen in einer Kette auftreten; mehrere zusätzliche Fakten werden gegebenen,
falls nach Anspruch 4 und 5 als Partnervariablen behandelt.
22. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß zur
einer Faktvariablen außer den Mengen zugelassener Fakten auch Mengen nicht zugelassener Fakten
trainiert werden, für die das Schema nicht gültig ist.
23. Expertensystem nach Anspruch 1, 22 oder einem der vorangegangenen Ansprüche, dadurch
gekennzeichnet, daß die quantitative Ermittlung der Konformität eines Fakts auf einer mathematisch
logischen Verknüpfung relativer oder absoluter Größen der Schnittmengen zugelassener bzw. nicht
zugelassen er Wertemengen von Faktvariablen basiert.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19828528A DE19828528A1 (de) | 1998-06-26 | 1998-06-26 | Expertensystem |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19828528A DE19828528A1 (de) | 1998-06-26 | 1998-06-26 | Expertensystem |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19828528A1 true DE19828528A1 (de) | 1998-12-17 |
Family
ID=7872117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19828528A Ceased DE19828528A1 (de) | 1998-06-26 | 1998-06-26 | Expertensystem |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE19828528A1 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010034430A1 (de) * | 2010-08-16 | 2012-02-16 | Siemens Aktiengesellschaft | Verfahren zur Konfiguration einer Bildgebungsvorrichtung |
US9934470B2 (en) | 2015-09-30 | 2018-04-03 | Fanuc Corporation | Production equipment including machine learning system and assembly and test unit |
DE102021208368A1 (de) | 2020-08-18 | 2022-02-24 | Volkswagen Aktiengesellschaft | Computerimplementiertes Verfahren zur Entwicklung eines Produkts in einem vernetzten System und Anwendersystem zur computergestützten Entwicklung eines Produkts |
-
1998
- 1998-06-26 DE DE19828528A patent/DE19828528A1/de not_active Ceased
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010034430A1 (de) * | 2010-08-16 | 2012-02-16 | Siemens Aktiengesellschaft | Verfahren zur Konfiguration einer Bildgebungsvorrichtung |
US8838506B2 (en) | 2010-08-16 | 2014-09-16 | Siemens Aktiengesellschaft | Method to configure an imaging device |
US9934470B2 (en) | 2015-09-30 | 2018-04-03 | Fanuc Corporation | Production equipment including machine learning system and assembly and test unit |
DE102016011520B4 (de) | 2015-09-30 | 2018-05-09 | Fanuc Corporation | Produktionsausrüstung mit Maschinenlernsystem und Montage-und Prüfeinheit |
DE102021208368A1 (de) | 2020-08-18 | 2022-02-24 | Volkswagen Aktiengesellschaft | Computerimplementiertes Verfahren zur Entwicklung eines Produkts in einem vernetzten System und Anwendersystem zur computergestützten Entwicklung eines Produkts |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102017007729B4 (de) | Maschinenlerneinrichtung, Robotersystem und Maschinenlernverfahren zum Lernen einer Bewegung eines Roboters, der an einer gemeinsam durch einen Menschen und einen Roboter ausgeführten Aufgabe beteiligt ist | |
DE102020005646A1 (de) | Slot-Filling mit kontextbezogenen Informationen | |
WO2000063788A2 (de) | Situationsabhängig operierendes semantisches netz n-ter ordnung | |
EP1690219A2 (de) | Inferenzmaschine | |
EP0901658A1 (de) | Verfahren zur optimierung eines fuzzy-regelsatzes durch einen rechner | |
DE19828528A1 (de) | Expertensystem | |
Palm et al. | SFB 527: Integration symbolischer und subsymbolischer Informationsverabeitung in adaptiven sensomotorischen Systemen | |
DE202022104461U1 (de) | Syntaxgeleitetes Erkennungssystem für mathematische Termini | |
EP2712429A1 (de) | Ansteuerung eines technischen systems | |
DE19626142A1 (de) | Computer-Aided-Text-Design-System | |
DE10047172C1 (de) | Verfahren zur Sprachverarbeitung | |
EP3907574A1 (de) | Verfahren zur generierung von einer erklärung zu einer vorgenommenen entscheidung eines fertigungssteuerungssystems | |
DE202021102099U1 (de) | Vorrichtung zum Verarbeiten einer Wissensgrapheneinbettung | |
WO2006114299A2 (de) | Graphischer regeleditor | |
WO2024008232A1 (de) | Verfahren zur dynamischen erkennung von ratcheting bei einem kollaborativen roboter mittels künstlicher intelligenz und dynamischer kompensation der trajektorien | |
DE102007033019B4 (de) | Methoden und Datenverarbeitungssysteme für computerisiertes Schlußfolgern | |
Doshchanova | APPLICATION OF ARTIFICIAL NEURAL NETWORKS IN THE DIGITAL ECONOMY | |
Andrew | Toward A Practice Of Autonomous Systems: Proceedings Of The First European Conference On Artificial Life edited by Francisco J. Varela and Paul Bourgine, MIT Press (Bradford), Cambridge, Mass. 1992, large–format softcover, xvii+ 515 pp.(£ 49.50). | |
Les et al. | Machine Understanding-a new area of research aimed at building thinking/understanding machines | |
Tamosiunaite et al. | Bootstrapping Concept Formation in Small Neural Networks | |
Stephens et al. | Behavior analysis and the quest for machine intelligence | |
DE3911666A1 (de) | Verfahren zur kontextsensitiven informationsverarbeitung | |
DE60121445T2 (de) | Speicherverwaltung für Sprachdialogsystem | |
Xu et al. | Empowering Machines to Learn | |
DE102022110355A1 (de) | Verfahren und Vorrichtung zur maschinellen Unterstützung eines Konstrukteurs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OAV | Applicant agreed to the publication of the unexamined application as to paragraph 31 lit. 2 z1 | ||
OR8 | Request for search as to paragraph 43 lit. 1 sentence 1 patent law | ||
8105 | Search report available | ||
8110 | Request for examination paragraph 44 | ||
8125 | Change of the main classification |
Ipc: G06N 5/00 |
|
8131 | Rejection |