DE3720195A1 - Als expertensystem dienender rechner - Google Patents
Als expertensystem dienender rechnerInfo
- Publication number
- DE3720195A1 DE3720195A1 DE19873720195 DE3720195A DE3720195A1 DE 3720195 A1 DE3720195 A1 DE 3720195A1 DE 19873720195 DE19873720195 DE 19873720195 DE 3720195 A DE3720195 A DE 3720195A DE 3720195 A1 DE3720195 A1 DE 3720195A1
- Authority
- DE
- Germany
- Prior art keywords
- abst
- output
- memory
- input
- ebst
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Machine Translation (AREA)
Description
Schon seit vielen Jahren sind Expertensysteme Gegenstand umfang
reicher Untersuchungen unter Fachleuten. Expertensysteme sollen
im Rahmen der "Künstlichen Intelligenz" die menschliche Intelli
genz zumindest partiell übertreffen. Dies gelingt bisher in re
lativ engen Wissensdomänen. Es gibt darüber bereits eine ganze
Reihe von einschlägigen umfangreichen Fachbüchern, z. B.
- - Künstliche Intelligenz, Repräsentation von Wissen und natür lichsprachliche Systeme, Frühjahrsschule, Dassel (Solling), 5.-16. März 1984, Springer-Verlag 1985,
- - Künstliche Intelligenz und Expertensysteme, Forschungsbericht der Nixdorf Comp. AG (St. E. Savory), Oldenbourg Verlag 1985,
- - Feigenbaum und McCorduck, die 5. Computer-Generation, aus dem Englischen von T. Westermayr, Birkhäuser Verlag 1984 (engli scher Titel "The Fifth Generation, Artif. Intell. and Japan's Comp. Chall. to the World" Addison-Wesley Publish. Comp. 1983),
sowie sehr viele Aufsätze in Fachzeitschriften, vgl. z. B.
- - ITT, Elektr. Nachrw. 60 (1986) H. 2.
Die Stärke heutiger Expertensysteme liegt in logischen Schluß
folgerungen. Unzählige Fragestellungen bzw. Situationen des täg
lichen Lebens sind aber nicht logisch, sondern nur aus dem Er
fahrungswissen des Alltages, also durch "Weltwissen", zu beant
worten. Dieses Weltwissen ist oft außerordentlich verflochten
mit psychologischen Aspekten/Fakten und überdies im Gehirn des
Menschen nichthierarchisch, assoziativ organisiert. Ein Experten
system für Weltwissen wurde mit einem Rechner auf der Basis des
Von-Neumann-Prinzips bisher nicht realisiert. Daher fällt die
Leistungsfähigkeit bisheriger Expertensysteme am Rande ihrer Wis
sensdomäne steil ab.
Die Erfindung strebt daher an, die Leistungsfähigkeit von Exper
tensystemen an den Rändern ihrer Wissensdomänen durch besondere
Prinzipien der Wissensspeicherung und der Inferenzstrategie zu
verbessern. Dabei sollen erfindungsgemäße Prinzipien klassische
Expertensysteme ergänzen können, oder aber auch eigenständige
neuartige Expertensysteme bilden. Die erfindungsgemäßen Prinzi
pien sollen den Rechner befähigen, Fakten zu gewichten, mög
lichst auch weitgehend selbständig die Gewichtungen nachträglich
zu ändern, nämlich bei Bedarf neue Gewohnheiten nach und nach zu
bilden und alte Gewohnheiten nach und nach abzulegen. So können
im Prinzip auch die rein logisch/rational nicht ableitbaren
"Ausnahmefälle" berücksichtigt werden. Die genannten Funktionen
lassen sich zwar mit Hilfe der erfindungsgemäßen Prinzipien im
Prinzip auch auf Von-Neumann-Rechnern implementieren, jedoch be
steht dann die erhebliche Gefahr unzumutbar langer Rechenzeiten.
Die Aufgabe der Erfindung ist also, ein neues Konzept für einen
Expertensystem-Rechner zu bieten, der nicht nur eingegebenes
Wissen anwendet, sondern vor allem - trotz relativ geringem Auf
wand - auch nicht vorgeprägte, also "neue" Situationen mit einer
gewissen Wahrscheinlichkeit ausreichend zu beherrschen versteht.
Darüber hinaus zeigt die Erfindung einen Weg, die Rechenzeiten
durch eine spezielle Rechnerstruktur zu verkürzen.
Diese Aufgabe wird durch die im Patentanspruch 1 genannten Maß
nahmen gelöst.
Weiterbildungen der Erfindungen sind in den Unteransprüchen defi
niert. Derartige Weiterbildungen sollen bei Bedarf auch eine ge
wisse Lernfähigkeit bzw. selbständige Gewohnheitsänderungen auf
weisen; der Rechner soll dann vor allem manche Entscheidungskri
terien/Fakten stärker oder schwächer als bisher zu berücksich
tigen beginnen, wenn er feststellt, daß der Katalog der von ihm
zunächst berücksichtigten Fakten zu mangelhaft war.
Das Konzept der Erfindung und ihrer Weiterbildungen wird anhand
der in den Figuren gezeigten Ausführungsbeispiele näher beschrie
ben. Es zeigt die
Fig. 1 ein grob vereinfachtes Modell der mutmaßlichen menschlichen
Denkstruktur, wobei dieses Modell als Vorbild für das erfin
dungsgemäße Konzept diente,
Fig. 2 ein Beispiel der Struktur eines von der Erfindung benutzbaren
Faktengedächnisses,
Fig. 3 ein Beispiel für ein möglicherweise von der Natur verwende
tes Konzept, Wiederholungen von Situationen zu erkennen,
Fig. 4 ein Beispiel für ein technisches - im Prinzip bekanntes -
Konzept zur Erkennung von Wiederholungen,
Fig. 5 ein Beispiel für das technische Konzept zur Nachbildung des
in Fig. 1 gezeigten Modells des menschlichen Gehirns, und
Fig. 6 ein Beispiel für den Betrieb eines Mathematik-Expertensystems.
Die Erfindung wurde in Anlehnung an hypothetische Eigenschaften
des menschlichen Gehirns konzipiert. Zu den für die Erfindung
bemerkenswerten Gehirneigenschaften gehören in diesem Zusammen
hang:
- a) die starke Verflechtung des Weltwissens, d. h. des Wissens über Fakten und Gesetzmäßigkeiten aller Art,
- b) die Beherrschung auch nicht vorgeprägter, also "neuer" Si tuationen,
- c) im Idealfall zusätzlich die Fähigkeit des Selbst-Lernens, sowie
- d) im Zusammenhang mit dem Selbst-Lernen ggf. die eigenständi ge Bewertung nützlicher und schädlicher Fakten.
Diese Eigenschaften sind in einer hypothetischen Struktur des
Gehirns nach Fig. 1 implementiert. Dieses Gehirnmodell ent
spricht also dem Konzept des erfindungsgemäßen Expertensystem-
Rechners, der nicht völlig nach Von-Neumann-Prinzipien aufgebaut
ist. Dieses Gehirnmodell/dieser Rechner entspricht also einem
"beratenden Experten". Ein in Fig. 1 nicht gezeigter äußerer
Ratsuchender kann also die Fähigkeit des Beraters/Gehirns = Ex
pertensystem-Rechner nutzen. In einem (beim Gehirn langjährigen)
Lernprozeß haben sich im Gehirn/Rechner zahlreiche zusammengehö
rige Begriffskombinationen ("Gedanken-Bausteine") gebildet, - es
sind dies die in Fig. 1 gezeigten Eingabe-Bausteine EBst und die
im Prinzip identisch arbeitenden Ausgabe-Bausteine ABst. Im
menschlichen Gehirn werden solche "Bausteine" durch entsprechen
de Gehirnzellen gebildet. Im Rechner werden solche "Bausteine"
nicht unbedingt durch eigene separate Hardware gebildet; sie
können auch nur eigene besondere Softwareabschnitte darstellen;
hierbei können die Bausteine EBst und ABst evtl. auch Teile der
Hardware- oder Software-Einheiten S/P bzw. P/S sein, welche ih
rerseits vor allem zu Serien/Parallelumsetzungen bzw. Parallel/
Serienumsetzungen dienen; die Bausteine EBst und ABst sind nur
der besseren Darstellung wegen außerhalb dieser Einheiten S/P,
P/S gezeichnet. Solche Gedanken-Bausteine EBst und ABst können
also z. B. jeweils einzelnen Fragen und/oder Aufforderungen und/
oder Informationen über Fakten entsprechen.
Durch kurze Symbolfolgen, welche die Eingabe E bilden, werden
zugehörige Eingabe-Bausteine EBst = a 1 . . . x 1 aufgerufen und
mittels Serien/Parallelumsetzern S/P zu Mustern bzw. zu entspre
chenden Codeworten aufgefächert. Diese sind mit dem Kontextspei
cher KS verbunden, der auch der Verarbeitung dient, indem der
Kontextspeicher KS Fakten einer Art jeweils Fakten anderer Art
zuordnet und z. B. eine faktenbewertende/gewichtende Einheit Bew
mitenthält. Auch dieser Kontext-Speicher KS kann durch Software
abschnitte statt durch Hardware gebildet werden. Als Ergebnis
der Verarbeitung wird vom Kontextspeicher KS ein Ausgabe-Bau
stein ABst = a 2 . . . f 2 aufgerufen, welcher über einen Parallel/
Serienumsetzer P/S eine Ausgabe A, z. B. als Symbolfolge (Wort
folge) an den in Fig. 1 nicht gezeigten Ratsuchenden übermittelt.
Die Reaktion des Ratsuchenden wird wiederum als Symbolfolge auf
den Eingang E gegeben und löst den nächsten Arbeitszyklus des
Gehirns/Rechners aus. An die Stelle dieses äußeren Rückkopplungs
kreises kann auch ein unmittelbarer innerer Rückkopplungskreis
(serielle Übergabe sTr) treten, wobei die Rechnereingang/Gehirn
eingang angebrachte Weiche W kontextgesteuert den Eingang E ab
trennt. Die mittels des Kontextspeichers KS im Gehirnzentrum/
Verarbeitungszentrum des Rechners abgewickelten Denkvorgänge
werden also über die im Bereich der Eingabe E liegende Weiche W
entweder von außen, vgl. E, den Eingabe-Bausteinen EBst = a 1 . . .
x 1 und damit dem Kontextspeicher KS aufgeprägt (äußere Einflüs
se), oder sie werden intern im Gehirn/Rechner über den Rückkopp
lungsweg KS-sTr-W geschlossen, wobei im zweiten Fall die Weiche
W kontextgesteuert die äußeren Umgebungseinflüsse E auch abschot
ten kann.
Die Erfindung ermöglicht, den Rechner auch so zu bauen, daß
Speicherzellen die Funktionen von Neuronen des Gehirns überneh
men. Bevorzugt werden hierbei die durch Nervenbahnen (Axone) her
gestellten Beziehungen zwischen verschiedenen Neuronen durch Ver
zeigerung der Speicherzellen, also durch Adreßbeziehungen zwi
schen den Speicherzellen nachgebildet, die der Zusammenarbeit
dieser Zellen ein möglichst assoziatives Speicherverhalten ge
statten. Ein solcher Rechner orientiert sich also nicht mehr an
Von-Neumann-Prinzipien.
Eine wichtige Rolle fällt der Bewertung Bew von aufgerufenen
einzelnen der Begriffskombinationen/Eingangsbausteine EBst =
a 1 . . . x 1 zu: die Bewertung sorgt dafür, daß vorteilhafte Ver
bindungen im Neuronennetz vorläufig geschaltet und durch wie
derholten Gebrauch ggf. ein höheres Gewicht zugeteilt erhalten,
also weiter verstärkt werden (Prägung von Verhaltensweisen), al
so schließlich Dauerschaltungen bilden, und daß unerwünschte
Verbindungen bzw. unsinnige Gedankenkombinationen im Neuronen
netz möglichst unterbleiben bzw. nach und nach unterdrückt wer
den. Die prägungsverstärkende Bewertung spricht dann also beim
Benutzen von zufällig einmal falsch geschalteten Verbindungen
bzw. fehlerhaften Begriffskombinationen nicht oft genug mehr an
und unvorteilhafte Schaltungen bilden sich wieder zurück.
Neben jenen Dauerschaltungen, die dem Langzeitgedächtnis ent
sprechen, gibt es also im Kontextspeicher KS und/oder schon in
Eingabe-Bausteinen EBst viele, allein durch Benutzung zusätzlich
(!) wirksame, zeitlich abklingende Prägungseffekte. Ein bereits
gebahnter Weg wird nach einer Inanspruchnahme vorübergehend noch
leichter gangbar, so daß ein bevorzugter Wiederaufruf möglich
ist. Auf diese Weise läßt sich zuvor gedachte Gedanken wie
der aufsetzen, vgl. das Kurzzeitgedächtnis. Wird dieser vorge
bahnte Weg aber nicht bald genug benutzt (oder gar als falsch
erkannt), dann klingt die Bereitschaft ab, ihn in ähnlichen Si
tuationen sofort zur Benutzung anzubieten.
Die eigentliche Informationsverarbeitung findet nach diesem Mo
dell durch entsprechend verknüpfte Zuordnungen mit Hilfe des
Kontextspeichers KS statt. Eine Voraussetzung hierfür sind die
zuvor durch Erfahrung zu prägenden Verbindungen zum, vom und im
Kontextspeicher KS.
Ein relativ einfaches Arbeitsprinzip für einen Kontextspeicher
KS ist das Abspeichern aller wichtigen Fakten in der Reihenfol
ge ihres zeitlich nacheinander erfolgenden Auftretens. Je weiter
jeweils eine Gedankenverarbeitung/Beratungs-Prozeß fortschreitet,
umso mehr Verarbeitungswege/Schalter/Kippstufen/Unterprogrammab
schnitte werden aktiv einbezogen, die irgendwann - z. B. bei Über
gang auf einen völlig anderen Beratungs-Prozeß - wieder zurück
gestellt werden.
Die Fig. 2 zeigt ein einfaches Beispiel für ein Faktengedächtnis
im Kontextspeicher KS: Der Rechner enthält Regelwissen. Eine In
formation, eine Frage, ein Rat bzw. eine Aufforderung a 2 . . . f 2
wird durch Prämissen bzw. Fakten, nämlich durch Bausteine a 1 . . .
x 1 aufgerufen. Der Expertensystem-Rechner muß den Ratsuchenden
im Dialog sukzessiv nach solchen Prämissen fragen. Sobald der
Rechner alle Prämissen/Fakten abfragte/klärte, die jeweils zur
Erteilung eines Rates bzw. zu einer Aufforderung ausreichen,
gibt der Rechner diesen Rat/Aufforderung ebenfalls als Ausgabe
A über einen entsprechenden Ausgabe-Baustein ABst ab.
Als Beispiel diene eine Anlageberatung: Ein Ausgabe-Baustein/Aus
gabe-Programmabschnitt ABst = a 2 des Beraters/Rechners möge "Ver
dienen Sie über oder unter 100 000,- DM jährlich?" aussagen. Ei
ne mögliche Antwort des Ratsuchenden heißt z. B.: "Ich verdiene
über 100 000,- DM jährlich." Dieser Antwort ist z. B. der Einga
be-Baustein EBst = a 1 zugeordnet. Der Rechner soll nun die Dialog
führung zunächst nicht straff selbst übernehmen, sondern dem
Ratsuchenden überlassen, wie es ein guter Anlageberater in der
Eröffnungsphase des Gesprächs wohl auch macht. Wenn der Ratsu
chende zufällig mit dem Eingabe-Baustein EBst = a 1 "Ich verdiene
über 100 000,- DM jährlich" beginnt, muß z. B. die Ausgabe A eine
Ausgabe-Frage AFF nach weiteren Fakten stellen; es muß also z. B.
der Ausgabe-Baustein b 2 des Rechners "Besitzen Sie bereits Im
mobilien?" aufgerufen werden. Fängt der Ratsuchende aber mit dem
Stoßseufzer EBst = c 1 (z. B. "Ich habe über 1 Million Schulden")
an, folgt aber nochmals der Ausgabe-Baustein ABst = a 2 wie oben,
damit der Rechner den Dialog auf eine bewährte Antwort-Strategie
eingrenzen kann.
In Fig. 2 bedeuten die dicken Punkte unter a 1 . . . x 1 jeweils ge
speicherte Eingabe-Fakten EF, also gespeicherte Fakten a 1 . . . x 1.
Die dadurch im Kontextspeicher KS entstehenden Muster sind durch
numeriert, vgl. die fortlaufenden Musternummern 1 . . . 13. Muster
Nr. 1 bedeutet also "Eingabe-Faktum a 1" bzw. "EBst a 1" ist auf
gerufen. Muster Nr. 9 kennzeichnet einen Zustand, in dem bereits
die vier Eingabe-Fakten a 1, b 1, c 1 und d 1 aufgerufen wurden. Mit
den nach unten zeigenden Pfeilen wird symbolisiert, welche ge
speicherten Fakten a 1 . . . f 1 zusammenwirken müssen, um einen je
weils zugehörigen Ausgabe-Baustein ABst = a 2 . . . f 2 zu einer Ausgabe
zu veranlassen (Pfeil nach oben). Ein Ausgabe-Baustein mit der
Bezeichnung n 2 sei hier, der Übersichtlichkeit wegen, jeweils
nur eine Frage nach einem Faktum mit der Bezeichnung n 1.
Der Rechner folgt einer Antwortstrategie, die unterschiedlich je
nach Dialogeröffnung reagiert. Was geschieht nämlich, wenn der
Ratsuchende unerwartete Fakten eingibt?: Wenn der Ratsuchende
nicht mit a 1 beginnt, wird in diesem Beispiel der Dialog auf
die von vorn ablaufende Folge a 1, b 1 . . . zurückgeführt. Fängt
der Dialog z. B. mit der Eingabe "c 1 an, wird sich zunächst die
in Muster Nr. 3 geprägte Strategie und anschließend Muster Nr.
12 einstellen, falls nun der Ratsuchende "a 1" eingab. Dieses Mu
ster Nr. 12 sei "neu", d. h. es sei zuvor noch nie in einer Prä
gungsphase berücksichtigt worden. Es gibt zuvor also keine Ver
bindung zu einem Ausgabefaktum AFF, das allein die Kombination
"a 1 + c 1 berücksichtigt. In den bereits geprägten Mustern Nr.
8, 9, 10 ist zwar die Kombination "a 1 + c 1 enthalten; sie reicht
aber noch nicht zum Aufruf der dort zugehörenden Ausgabe-Baustei
ne ABst, nämlich d 2, e 2, f 2 aus. Es sind nämlich noch nicht die
Fakten b 1, d 1 bzw. e 1 als weitere Prämissen eingegeben. Demnach
wirkt Muster Nr. 12 zunächst nur wie Muster Nr. 1 und bewirkt
die Ausgabe AFF "b 2" = "Frage nach Faktum b 1". Falls daraufhin
der Ratsuchende das Faktum b 1 eingibt, entsteht im Kontext-Spei
cher KS das Muster Nr. 8 mit der Ausgabe des Ausgabe-Bausteins
d 2. Damit ist die ursprünglich geprägte Folge mit den Mustern
Nr. 9 und 10 als weitere Folgefragen wiederhergestellt. - Ähn
lich verläuft der Dialog bei Beginn mit dem Eingabe-Faktum d 1,
vgl. Muster Nr. 4. Nach der Eingabe der Fakten a 1 und b 1 (Mu
ster Nr. 13) wird nach Faktum c 1 gefragt. Daraufhin entsteht Mu
ster Nr. 9 mit der Frage nach e 1, wobei die Frage nach dem be
reits bekannten Faktum d 1 ausgelassen wird. Der Rechner verhält
sich also, dank der Speicherung der jeweils früher eingegebenen
Fakten im Kontext-Speicher KS, intelligent!
Aber wie läßt sich eine Eindeutigkeit der Decodierung der Muster
a 1 . . . f 1 . . . x 1 auf die Ausgangs-Bausteine a 2 . . . f 2 erreichen? Wa
rum erzeugt also z. B. Muster Nr. 10 nicht gleichzeitig Fragen
nach allen Fakten a 1 bis f 1? - Die Eindeutigkeit wäre z. B. mit
einer Binär-Decodierung möglich, die gezielt auch hemmende Ver
bindungen knüpft. Ein zugehöriger Prägungsmechanismus ist aller
dings schwer realisierbar. Wenn man jedoch für den Faktenspei
cher z. B. von der Funktion eines multistabilen, aus vielen Kipp
stufen bestehenden Flip-Flop ausgeht, bei dem sich nur die ein
zige Kippstufe mit den meisten Erregungsüberschüssen durchsetzt,
wird das Problem auf eine Gewichtung der Erregung und eine Maxi
mum-Bestimmung im Spektrum der Erregungen zurückgeführt: Das Aus
gabefaktum mit den derzeit stärksten Erregungsbeiträgen wird aus
gewählt: Muster Nr. 10 kann dann nur den Ausgabe-Baustein f 2, Mu
ster Nr. 9 nur den Ausgabe-Baustein e 2 aufrufen! Komplexe Muster,
vgl. Nr- 10, können daher die weniger komplexen Muster, vgl. Nr.
9, unterdrücken, was bedeutet, daß weitergehende Erfahrungen ur
sprüngliche Erfahrung nicht mehr "zu Wort" kommen lassen. Eine
ursprüngliche Erfahrung, vgl. Nr. 1 und 7, kann dann nur durch
das ursprüngliche Faktumsmuster/Ereignismuster EF aufgerufen wer
den, also durch a 1 bzw. durch a 1 + b 1.
Während also einerseits Muster größerer Aktivität solche geringe
rer Aktivität unterdrücken, dürfen andererseits Muster geringe
rer Aktivität keine Ausgabe-Bausteine ABst aufrufen, die größe
ren Aktivitäten zugeordnet sind. Wenn im Gehirn/Rechner z. B. mit
Fakten a 1, b 1, c 1 nur das Muster Nr. 8 aufgerufen wird; wie wird
dann verhindert, daß im Gehirn/Rechner auch die Muster Nr. 9 und
10 aktiviert werden?: dadurch, daß vier bzw. fünf verschiedene
erregende Aktivitäten von vier bzw. fünf verschiedenen Eingangs-
Bausteinen EBst notwendig sind, um die mit der Prägung und mit
Gewichtungen festgeschriebene Zündschwelle von hemmenden Ein
flüssen zu überwinden! - Der Auswahlalgorithmus ist also folgen
dermaßen zu ergänzen: Das Ausgabefaktum mit den meisten bzw.
stärksten Erregungsbeiträgen wird ausgewählt unter der Voraus
setzung, daß durch die Erregungsbeiträge die Zündschwelle, also
eine bestimmte Gewichtung überschritten wird. Sollten sich dann
mehrere Ausgabefakten dieser Auswahl stellen, erfolgt die end
gültige Auswhal nach einer plausiblen Strategie, z. B. allein
durch Zufall, oder gemäß Ähnlichkeiten zu vorhergehenden Aus
gaben, oder nach irgendeiner anderen plausiblen Strategie.
Wie eingangs erwähnt, soll der Rechner gemäß der Erfindung auch
neue, noch nicht erfahrene Situationen mit gewisser Wahrschein
lichkeit beherrschen können. Voraussetzung dafür ist, daß die
neuen Situationen bereits erfahrenen Situationen in gewisser
Weise ähnlich sind, und daß dies durch eine "Ähnlichkeitsco
dierung" berücksichtigt wird. Wie kann man sich eine solche
"Ähnlichkeitscodierung" vorstellen? Das läßt sich an Fig. 2
schlecht demonstrieren, weil die Muster Nr. 1 bis 10 alle ein
ander sehr unähnlich sind und jeweils zu sehr verschiedenen Aus
gaben führen. Würde z. B durch eine neue Situation das Muster
Nr. 11 entstehen, bei dem zusätzlich der Eingabe-Baustein EBst
"x 1" aktiviert wird, so erfolgt dennoch die Ausgabe f. Sollte
sich danach diese Ausgabe als "verkehrt" herausstellen, so muß
die neue, richtige Zuordnung erst "gelernt" werden! Ähnlichkeits
codierung bedeutet hier also: es werden zunächst lediglich die
bereits "gelernten" Zuordnungen ausgewertet, bisher nicht akti
vierte Speicherplätze werden ignoriert.
Das gewissermaßen "statische" Auswerten von gespeicherten Fakten
a 1 . . . x 1 ohne Berücksichtigung der Reaktionen der Ratsuchenden,
genügt nicht, um allen wichtigen Lebenssituationen gerecht zu
werden. In einem Dialog zwischen Menschen wird z. B. auf wieder
holte Fragen (z. B.: "Stimmt es, daß +3 + 6 = 6" ist′") entweder ge
antwortet: "Das haben Sie doch schon einmal gefragt!" - Oder aber
der Gefragte/Rechner rechnet erneut "+3 + 3 = 6", indem er die wie
derholte Eingabe als neue Eingabe wertet. Auf welche Weise die
Evolution diese nicht einfache, aber für die menschliche Intel
ligenz bedeutungsvolle Aufgabe gelöst hat, ist unbekannt. Viel
leicht ist sie mit unserem Kurzzeitgedächtnis verbunden. Eine
der Möglichkeiten deutet Fig. 3 an: Durch die zusätzliche, kurz
fristige Erregungsverstärkung/Gewichtung "bei Gebrauch" dringen
wiederholte Ereignisse/Situationen Sitx von Wiederholung zu Wie
derholung tiefer in den Abbildungskomplex Abbx ein und rufen da
mit verschiedene, durch die Zeitfolge t 1 . . . t 3 modifizierte Be
deutungen/Gewichtungen der Abbildungen Abbx auf, die entweder
individuell mit x 1, x 2, x 3 (Beispiel: Addition "+3 + 3 + 3") oder
allgemein mit erster Wiederholung 1. Rep., zweiter Wiederholung
2. Rep. usw. (Beispiel: Antwort auf wiederholte Frage) ausgewer
tet werden. Dies ist sicher keine sehr exakte Diskriminierung
besonders für den Fall, daß sich Wiederholungen in der Folge von
Eingaben besonders oft häufen.
Technisch lassen sich mehrere Lösungen hierfür denken. Fig. 4
beschreibt einen Weg, der partiell auch von der Evolution be
schritten sein könnte. Die Aktivierung von Speichern bzw. von
Adreßräumen folgt einer Ereignisspur SitSp, in der nur jeweils
ein Speicher bzw. ein Adreßraum aktiv ist (wie es auch im mensch
lichen Bewußtsein in ähnlicher Weise bei einer Gedankenfolge der
Fall ist). Zum Beispiel wird in einem Speicher die Addition von "+3 + 4"
registriert, wobei dieser Speicher jeweils erneut aktiviert wird,
sobald diese Addition von den betreffenden Eingabe-Bausteinen
EBst angeregt wird. - Die Eingabe-Bausteine EBst werden übrigens
am besten vom Rechner impulsweise aufgerufen, damit die von sol
chen Eingabe-Bausteinen angeregten Folgeketten nicht ungebremst
durchlaufen können.
Anhand von Fig. 2 wurde eine Dialogregel erläutert, die bereits
in allen Einzelheiten gelernt und fest als Dauerschaltung ge
speichert ist - es gibt hier sozusagen bereits eine in das "Un
terbewußtsein übergegangene Strategie, nach welcher der Dialog
erfolgreich abgewickelt werden kann. In vielen Fällen wird es
aber eine solche geschlossene Strategie nicht geben. Dann muß
vom Gehirn/Rechner "bewußt" erkannt werden können, daß die mit
geteilten Fakten noch nicht ausreichen. Diese Erkenntnis des
Mangels stößt daraufhin einen bewußten Gedankengang bzw. einen
Verarbeitungsprozeß des Rechners zum Aufspüren noch fehlender/
relevanter Fakten an. Der Mensch geht dabei im allgemeinen ziem
lich wahllos die taxonimischen Zusammenhänge durch, was wegen
der starken Verflechtung der Begriffe, der erkannten Gesetzmä
ßigkeiten und der damit bei ihm verbundenen Assoziationen rela
tiv schnell, und zwar "assoziativ", abläuft. Er kann aber auch
einer strengen, übergeordneten, also "gelernten Strategie fol
gen, z. B. dem "backward chaining".
Wie die Evolution das "Erkennen der Unvollständigkeit" gelöst
hat, ist wiederum unbekannt. Technisch läßt sich dies mit wenig
Aufwand angenähert z. B. durch ein Zeitglied/"watch dog" reali
sieren, welches signalisiert, wenn Reaktionen ausbleiben. Läuft
das Zeitglied ab, ohne daß eine noch notwendige Eingabe E auf
trat, bedeutet dies "Eingabe ist unvollständig", wodurch darauf
hin notwendige Folgeaktivitäten angestoßen werden können.
Ein Expertensystem braucht im allgemeinen nicht aus der Erfah
rung zu lernen, weil ihm der Knowledge-Engineer bereits bewerte
tes Wissen eingibt. Später vielleicht realisierbare "selbstler
nende Expertensysteme" müssen die Bewertung aus "eigener Kraft"
vornehmen und brauchen dazu eigene Wertmaßstäbe. Solche Wertmaß
stäbe können in voller Differenziertheit zuvor auch vom Menschen
eingegeben werden. Noch eine Stufe komplizierter wird es jedoch,
wenn das Expertensystem den Wertmaßstab selbst aufzubauen hat.
In jedem Fall sollte dann aber dem Expertensystem ein "Bewer
tungsnukleus" für Erfolg/Mißerfolg mitgegeben werden, der sich
nach dem jeweiligen Einsatzgebiet des Expertensystems richtet.
Selbstlernen heißt aus eigener Erfahrung lernen. Die Umwelt bie
tet Erfahrungen an, die das Expertensystem eigenständig auswer
ten soll. Dazu muß das Expertensystem auch die "Sprache" der Um
welt verstehen. Die Umwelt wird sich im allgemeinen - im weite
sten Sinne - natürlichsprachlich präsentieren, also sollte das
Expertensystem auch natürlichsprachlich zu programmieren sein.
Dies ist offenbar eine Voraussetzung für selbstlernende Exper
tensysteme (wobei es sich bei einer spezifischen Umwelt auch
einmal um eine spezifische "natürliche" Sprache handeln mag,
z. B. um bildliche Muster).
Fig. 5 zeigt beispielhaft einige Grundzüge eines entsprechen
den bevorzugten technischen, wenig aufwendigen Konzepts, wobei
hier der Übersichtlichkeit wegen die Funktion des "Selbstler
nens" ausgeklammert ist. Das Konzept wird in einem speziellen
Rechner realisiert, in welchem Speicherzellen, bzw. entsprechen
de kleine Softwareabschnitte, die Funktion von Neuronen des Ge
hirns übernehmen. An die Stelle der Verdrahtung treten also z. B.
"Zeiger", also Adressenhinweise, vgl. Adr, die vor allem durch
Software gebildet sein können, mit deren Hilfe von einer Zelle
auf Folgezellen verwiesen wird. Es gibt ein Repertoire von durch
numerierten Eingabe- bzw. Ausgabe-Bausteinen, vgl. EBstNr und
ABstNr, die auch reine Software-Bausteine darstellen können und
die teils der Eingabe E, teils der Ausgabe A, teils beiden, vgl.
E/ABst, zugeordnet sind. Über eine Weiche W, die ebenfalls evtl.
durch einen Softwareabschnitt statt durch reine Hardware gebil
det wird, ist es möglich, ausgelesene Ausgabe-Bausteine ABst oh
ne Beeinflussung von außen wieder direkt einem E/ABst des Rech
ners zuzuführen. Jedem Bausteine EBst und ABst ist ein Langtext
LT zugeordnet, der dem Ratsuchenden verständlich ist.
Jedem solchen Baustein EBst, ABst und/oder E/ABst ist eine Spei
cherzelle bzw. ein entsprechender Adreßraum zugeordnet, in wel
chem die Adressen, vgl. Adr, der anzusteuernden Kontext-Speicher
zellen, vgl. KoSZ bzw. entsprechende Adreßräume in einem großen
Speicher KS, vgl. Fig. 1, angegeben sind. Den Bausteinen E/ABst
ist eine Steuereinheit StKoS zugeordnet, welche die Ansteuerung
der adressierten Kontext-Speicherzellen KoSZ vornimmt. Bei Auf
ruf einer solchen Bausteinspeicherzelle, vgl. E/ABst, werden al
so die betreffenden Kontext-Speicherzellen, vgl. Adr in E/ABst
sowie KoSZ, z. B. gleichzeitig, oder der Reihe nach, angesteuert.
Jede Kontext-Speicherzelle, vgl. KoSZ, enthält ein Feld, vgl. MA,
in welchem Mehrfachaufrufe eingetragen werden können. Durch ih
nen zugeordnete Adressen Adr ist angegeben, welche Funktionen
Fkt anschließend abhängig von der Anzahl der Mehrfachaufrufe MA
anzusteuern sind. Den Kontext-Speicherzellen KoSZ ist eine Steu
ereinheit StABst zur Ansteuerung der Ausgabe-Bausteine ABst zu
geordnet. Hierzu enthält jede Kontext-Speicherzelle KoSZ die
Adressen ADr aller ihr zugewiesenen Ausgabe-Bausteine ABst, zu
sammen mit der dem Baustein jeweils zugeordneten Eingangsnummer
ENr, falls die betreffenden Ausgabe-Bausteine ABst mehrere ver
schiedene Eingänge ENr = E 1 . . . En haben. Vor jeder aufgerufenen
Kontext-Speicherzelle KoSZ aus werden sämtliche zugeordneten
Ausgabe-Bausteine ABst gleichzeitig oder in Gruppen oder seriell
nacheinander angesteuert und in noch zu beschreibender Weise be
arbeitet. Abhängig von der Vorgeschichte, z. B. von der Anzahl
der Mehrfachaufrufe MA, lassen sich die Adressen der anzusteu
ernden Ausgabe-Bausteine ABst modifizieren, so daß entsprechend
andere Ausgabe-Bausteine ABst erreicht werden.
Die verschiedenen Eingänge E 1 . . . En der Ausgabe-Bausteine ABst
können abhängig von der ansteuernden Kontext-Speicherzelle KoSZ
mit unterschiedlichen Gewichten programmiert sein, vgl. GZ, also
z. B. entsprechende Gewichtswerte GZ speichern. Bei jedem Eingang,
der von einer aktiven Kontext-Speicherzelle KoSZ angesteuert
wird, wird ein Aktivitätskennzeichen A′ gesetzt. Dieses Aktivi
tätskennzeichen A′ repräsentiert die Speicherwirkung der Kontext-
Speicherzellen KoSZ. Zusätzlich läßt sich - falls der oben be
schriebene Effekt der Kurzzeitspeicherung mit einbezogen werden
soll - je Eingang E 1 . . . En mit Hilfe eines Zählers in GZ eine
"Zeitspur" legen, die bei der Bestimmung des resultierenden Ein
gangsgewichtes GZ berücksichtigt wird. Anstelle der Weiterzäh
lung aller solcher dezentral in GZ gespeicherten Zeitspuren kann
im Prinzip auch eine einzige Zentrale ZentZSp gewisser
maßen "zurück" gezählt werden. Bei der Auswertung der resultie
renden Eingangsgewichte wird der jeweils abgefragte dezentrale
Zählerstand in GZ mit dem Zählerstand der zentralen Zeitspur
ZentZSp in Beziehung gesetzt. Im Prinzip können auch alle ge
speicherten GZ-Zeitspurwerte von einem zentralen Zeitspur-Gene
rator ZentZSp des Rechners automatisch in fixen Zeitabständen
verkleinert werden, entsprechend der für die betreffende Zelle
GZ gewünschten Restdauer des Kurzzeitgedächtnisses. Dieser Gene
rator ZentZSp kann auch dazu dienen, um abhängig vom Zeitverlauf
- vgl. "früher" und "später" in der unten beschriebenen Fig. 6
- unterschiedliche Kontext-Speicherzellen KoSZ anzusteuern.
In jedem Ausgabe-Baustein ABst bzw. in jeder entsprechenden
Speicherzelle ABst bzw. in jedem entsprechenden Adreßraum muß
ein Schwellwert Schw eingetragen werden, der jeweils durch (die
Summe der) Eingangsgewichte, sobald diese durch Aktivitätskenn
zeichen A′ aktiviert sind, überschritten werden muß, wenn der
betreffende Baustein ABst in den noch zu beschreibenden ABst-
Auswahlvorgang miteinbezogen werden soll. - Weiterhin ist mit
einer mitgespeicherten Ausgabe-Baustein-Nummer ABstNr ein zum
betreffenden Ausgabe-Baustein ABst gehörender spezieller Lang
text LT erreichbar.
Im betrachteten Zyklus mögen von den (durch den Eingabe- und/oder
Ausgabe-Baustein) aufgerufenen Kontext-Speicherzellen KoSZ alle
ihnen zugeordneten Eingänge E 1 . . . En der Ausgabe-Bausteine ABst
bereits aktiviert worden sein. Jetzt kann der Auswahlprozeß zur
Bestimmung eines einzigen anzuregenden Ausgabe-Bausteins ABst
beginnen. Hierzu werden alle betreffenden Ausgabe-Bausteine ABst,
z. B. der Reihe nach, ausgelesen, vgl. Maximum-Suche MaxS. In je
dem Ausgabe-Baustein ABst werden die resultierenden aktiven, ge
speicherten Eingangsgewichte GZ aufsummiert, im Maximum-Register
MaxReg als Wert lastMax gespeichert, falls dort bisher ein klei
nerer Wert lastMax gespeichert war, und mit der im betreffenden
Ausgabe-Baustein ABst gespeicherten Schwelle Schw verglichen:
Wird die Schwelle Schw überschritten, so kommt der betreffende
Ausgabe-Baustein ABst in die engere Wahl und wird im Maximum-Re
gister MaxReg als Kandidat ABstAdr eingetragen. Ist die Zahl der
aktiven Eingangsgewichte GZ aber kleiner als die im Maximum-Re
gister MaxReg vermerkte Zahl lastMax, so kann der betreffende
Ausgabe-Baustein ABst nicht ausgewählt und daher nicht als Kan
didat ABstAdr eingetragen werden. Übertreffen aber zu einem spä
teren Zeitpunkt die Eingangsgewichte GZ die im Maximum-Register
MaxReg gespeicherte Zahl, so wird der betreffende Ausgabe-Bau
stein ABst neuer Kandidat für die Auswahl, indem seine Adresse
und das aufsummierte Gewicht GZ der betreffenden Eingänge E 1 . . .
En auf Kosten des vorigen Kandidaten im Maximum-Register MaxReg
eingetragen wird, vgl. ABstAdr. Ist das aufsummierte Gewicht GZ
aller Eingänge E 1 . . . En eines Ausgabe-Bausteins ABst aber gleich
der Zahl lastMax eines anderen Kandidaten ABstAdr im Maximum-Re
gister MaxReg, so kann eine beliebige Strategie gewählt werden,
z. B. "Überschreiben" der Adresse des bisherigen Kandidaten ABst-
Adr, oder "vergessen".
Wenn alle betreffenden Ausgabe-Bausteine ABst bei der Maximum
suche MaxS durchgeprüft sind, kann ein Such-Ende-Baustein SEnd
das Transferglied S steuern, um mittels des im Maximum-Register
MaxReg gespeicherten Kandidaten den betreffenden Ausgabe-Bau
stein ABst mittels seiner Nummer ABstNr anzuregen, am Ausgang A
einen Langtext LT auszugeben und/oder direkt wieder über die Wei
che W zu einem weiteren Zyklus auf einen E/A-Baustein E/ABst
einzuwirken.
Um den Aufwand zur Herstellung eines solchen Rechners abzu
schätzen, hier ein grob geschätztes, einfaches Zahlenbeispiel:
Es gebe m = 104 Ausgabe-Baustein ABst. Jeder solcher Baustein
ABst ist also 14 Bit zu adressieren. Ferner gebe es n = 104
Kontext-Speicherzellen KoSZ mit gleichem Adressieraufwand. Von
jedem Baustein E/ABst, der die Ansteuerung des Kontextspeichers
KS steuert, seien maximal p = 102 Kontext-Speicherzellen KoSZ
ansteuerbar. Damit benötigt jeder solcher Bausteine E/ABst 1400
bit. Die Anzahl der E/ABst ist z. B. gleich der Anzahl der Aus
gabe-Bausteine ABst, also 104. Es werden für die Bausteine E/AB
st dann 1,4 · 107 Bit gebraucht.
Jede Kontext-Speicherzelle KoSZ möge maximal 102 Ausgabe-Bau
steine ABst erreichen können. Jeder Ausgabe-Baustein ABst habe
selbst maximal 102 Eingänge E 1 . . . En; zur Adressierung eines
dieser Eingänge sind 7 Bit nötig. Adresse und Eingang eines Aus
gabe-Bausteins ABst erfordern also 14 Bit + 7 Bit =21 Bit. Für
die 102 zu adressierenden Ausgabe-Bausteine ABst werden je Kon
text-Speicherzelle KoSZ also 2100 Bit gebraucht, für 104 Kontext-
Speicherzellen KoSZ sind dies also etwa 2,1 · 107 Bit (der Bit
bedarf für Mehrfachaufruf ist hierbei vernachlässigbar).
Der Bitbedarf jedes Ausgabe-Bausteins ABst entspricht im wesent
lichen den Speicherzellen, die den 102 Eingängen E 1 . . . En zuge
ordnet sind. Dies sind insgesamt z. B. 1500 Bit je Ausgabe-Bau
stein ABst. Hinzu kommen z. B. maximal 500 Bit für den Langtext
LT je Ausgabe-Baustein ABst; zusammen also ca. 2000 Bit. Die
Summe über alle Ausgabe-Bausteine ABst beträgt demnach etwa 2 ·
107 Bit.
Insgesamt handelt es sich bei diesem Beispiel also um einen Spei
cheraufwand von weniger als 60 Mbit. Dies ist im Prinzip bereits
mit weniger als 15 der künftigen 4 Mbit-Chips zu bewältigen.
Zum Fassen eines Gedankens sind im allgemeinen die meisten Schrit
te für die Aktivierung der Eingänge E 1 . . . En der Ausgabe-Baustei
ne ABst notwendig. In diesem Beispiel werden von einer einzigen
Kontext-Speicherzelle KoSZ 102 Verarbeitungsschritte zur Akti
vierung von Eingängen E 1 . . . En der Ausgabe-Bausteine ABst veran
laßt. Mit maximal 102 angesteuerten Kontext-Speicherzellen KoSZ
beträgt die Anzahl der Verarbeitungsschritte hier lediglich 104.
Für die Maximum-Suche MaxS werden alle 104 Ausgabe-Bausteine AB
st abgefragt. Im diskutierten Fall sind also im wesentlichen
(unter Vernachlässigung geringerer Beträge) 20 000 Verarbeitungs
schritte durchzuführen. Beträgt die Verarbeitungszeit 1 µs je
Schritt, dann erfolgt die Auswahl eines Gedankens in etwa 20 ms.
Natürlich kann man auch von völlig anderen Vorgaben ausgehen,
vor allem abhängig von gesammelten Erfahrungen, welche Anzahlen
für "Weltwissenkomponenten" in praktischen Fällen je nach Sach
gebiet wirklich relevant sind. Das kann allerdings mitunter auch
zu wesentlich größeren Anzahlen als hier angenommen führen.
Mit welchen Gewichten GZ welche Eingänge E 1 . . . En zu belegen
sind, ist z. B. ebenfalls eine Frage der Erfahrung. Sicherlich
wird man zunächst mit aufwandsarmen Lösungen beginnen, die z. B.
sogar von einheitlichen Eingangsgewichten ausgehen und die zu
nächst auch auf die Berücksichtigung von Zeitspuren verzichten.
Anschließend kann man diese Einschränkungen fallenlassen und
nach und nach den Aufwand jeweils nach dem Experten-Sachgebiet,
für welches der Rechner eingesetzt werden soll, optimieren.
Zur Erhöhung der Rechengeschwindigkeit kann der erfindungsgemäße
Rechner, wie es auch für andere Expertensystem-Rechner vorgese
hen ist, mit vielen selbständigen Prozessoren aufgebaut werden,
die verstreut in vielen Funktionseinheiten des Rechners ange
bracht sind und die zeitlich weitgehend unabhängig voneinander
und weitgehend gleichzeitig, statt seriell nach dem Von-Neumann-
Prinzip arbeiten.
Die Erfindung eignet sich ganz besonders für Expertensystem-Rech
ner für nichtmathematische Wissensdomänen, wobei das zur Verfü
gung gestellte Wissen auch in assoziativen Speichern gespeichert
sein kann. Dementsprechend sind bei der Erfindung die Adressen
im Regelfall durch speicherinhaltorientierte Zeiger gebildet,
welche jeweils auf einen bestimmten Faktenkomplex/Gedankenkom
plex hinweisen.
Expertensystem-Rechner für rein mathematische Wissensdomänen
wird man im allgemeinen mit Hilfe von arithmetisch-logischen
Einheiten aufbauen, welche seriell Befehle verarbeiten und damit
nach Von-Neumann-Prinzipien aufgebaut und betrieben werden. An
sich ist es jedoch möglich, auch einen Mathematik-Expertensy
stem-Rechner erfindungsgemäß aufzubauen und zu betreiben. Fig. 6
zeigt ein einfaches Beispiel für den Betrieb eines solchen Rech
ners, und zwar beschreibt dieses Beispiel ausschnittsweise den
Potenzrechnungs-Betrieb. In der linken Spalte ist gezeigt, daß
am Rechnereingang, z. B. bei einem E/ABst-Baustein, vier ver
schiedene Begriffe eingegeben werden, welche Assoziationen aus
lösen: Nämlich die Begriffe "2", "3", "hoch" sowie "=". Das in
Fig. 6 gezeigte Beispiel ist besonders insofern interessant, als
es hier auf die zeitliche Folge dieser eingegebenen Begriffe an
kommt. "23" ergibt nämlich ein anderes Resultat als "32". In den
Kontext-Speicherzellen KoSZ wird nicht nur registriert, daß die
Begriffe "2" und "3" in den Rechnereingang E/ABst eingegeben
wurden, sondern es wird auch die zeitliche Folge dieser Eingaben
mit Hilfe des zentralen Zeitspur-Generators ZentZSp registriert.
In den Kontext-Speicherzellen KoSZ wird nämlich registriert, ob
zuerst der Begriff "2" oder der Begriff "3" eingegeben wurde,
vergleiche "früher" und "später", oder ob die umgekehrte Reihen
folge eingegeben wurde. Der Kontext-Speicher steuert schließlich
die Ausgabe-Bausteine ABst "23" oder "32" entsprechend der ein
gegebenen Reihenfolge der Begriffe "2" und "3" an, so daß als
Langtext LT am Rechnerausgang A schließlich das Ergebnis "8"
oder "9" ausgegeben wird. Der Generator ZentZSp kann hierbei
dazu dienen, um abhängig von der zeitlichen Folge der Eingaben,
vgl. "früher" und "später", unterschiedliche Kontext-Speicher
zellen KoSZ anzusteuern. Der Ausgabe-Baustein ABst wird hierbei
überdies erst dann endgültig angesteuert, wenn als Eingabe-Be
griff zusätzlich der Begriff "=" zur Signalisierung des Endes
der Eingabe eingegeben wurde, wobei dieser Begriff nun die Maxi
mumsuche MaxS auslöst, vergleiche auch Fig. 5. S bezeichnet in
Fig. 6 jene Schwelle, die überschritten werden mußte, damit der
betreffende Ausgabe-Baustein ABst aufgerufen wurde.
Claims (5)
1. Als Expertensystem dienender Rechner,
dadurch gekennzeichnet,
daß er deutlich abweichend von Von-Neumann-Prinzipien aufgebaut
und betrieben ist, indem er vor allem rein speicherplatzadres
siert betriebene Speicher, rein serielle Abarbeitungen von Pro
grammschritten sowie die Verwendung von arithmetisch-logischen
Einheiten und von speicherplatzorientierten Adressen ersetzt
durch assoziativ betriebene Speicher, durch parallele Bearbei
tungen von Gedankenkombinationen und durch speicherinhaltsorien
tierte Adressen/Zeiger,
daß er speziellen Gedankenkombinationen/Datenblöcken/Fakten/ Anregungen entsprechende Eingabe-Bausteine (EBst) mit assozia tiven Speichereinheiten (EBst) sowie Ausgabe-Bausteine (ABst) mit assoziativen Speichereinheiten (ABst) enthält, zwischen denen ein Verknüpfungsteil/Kontext-Speicher (KS) mit assoziati ven Speichereinheiten (KS) eingefügt ist, und
daß der Kontext-Speicher (KS) multistabil in dem Sinne steuer bar ist, daß er, je nach Gewichtung der einzelnen, von den Eingabe-Bausteinen (EBst) und/oder von seinen einzelnen akti vierten Kontext-Speicherzellen (KoSZ) ausgehenden Anregungen, ein Muster von Ausgangssignalen an seinen Ausgängen abgibt, welches einzelne der Ausgangs-Bausteine (ABst), abhängig von früheren, auf die Eingabe (E) wirkenden Prämissen, steuert.
daß er speziellen Gedankenkombinationen/Datenblöcken/Fakten/ Anregungen entsprechende Eingabe-Bausteine (EBst) mit assozia tiven Speichereinheiten (EBst) sowie Ausgabe-Bausteine (ABst) mit assoziativen Speichereinheiten (ABst) enthält, zwischen denen ein Verknüpfungsteil/Kontext-Speicher (KS) mit assoziati ven Speichereinheiten (KS) eingefügt ist, und
daß der Kontext-Speicher (KS) multistabil in dem Sinne steuer bar ist, daß er, je nach Gewichtung der einzelnen, von den Eingabe-Bausteinen (EBst) und/oder von seinen einzelnen akti vierten Kontext-Speicherzellen (KoSZ) ausgehenden Anregungen, ein Muster von Ausgangssignalen an seinen Ausgängen abgibt, welches einzelne der Ausgangs-Bausteine (ABst), abhängig von früheren, auf die Eingabe (E) wirkenden Prämissen, steuert.
2. Rechner nach Patentanspruch 1,
dadurch gekennzeichnet,
daß die Gewichtung des Einflusses eines Eingabe-Bausteines
(EBst) auf den Kontext-Speicher (KS) abhängig ist von der Anzahl
der von diesem Eingabe-Baustein (EBst) pro Zeiteinheit in der
letzten Zeit auf den Kontext-Speicher bzw. auf Ausgabe-Bausteine
(ABst) ausgehenden Anregungen.
3. Rechner nach Patentanspruch 1 oder 2,
dadurch gekennzeichnet,
daß die Gewichtung des Einflusses des Kontext-Speichers (KS)
auf einen Ausgabe-Baustein (ABst) abhängig ist von der Anzahl
der auf diesen Ausgabe-Baustein (ABst) pro Zeiteinheit in der
letzten Zeit wirkenden Anregungen.
4. Rechner nach einem der vorhergehenden Patentansprüche, beson
ders nach Patentanspruch 3,
dadurch gekennzeichnet,
daß ein watch-dog-Zeitglied angebracht ist, welches überprüft,
ob eine nach einer bestimmten Ausgabe (A) eines Ausgabe-Bau
steines (ABst) erwartete Reaktion, also ob eine dieser Reaktion
entsprechende Eingabe (E), in einer bestimmten Zeitspanne nach
der bestimmten Ausgabe (A) eintritt oder ausbleibt,
daß, bei nicht erwünschter bzw. falscher Reaktion des Ratsu chenden auf die bestimmte Ausgabe (A), eine neue, andere Ausgabe (A) erfolgt und/oder die Gewichtung von Eingabe-Bausteinen (EBst) und/oder die Gewichtung von Ausgabe-Bausteinen (ABst) so geändert wird, daß die bestimmte Ausgabe (A) in Zukunft nur mit kleinerer Wahrscheinlichkeit als bisher auftreten kann, und
daß, bei erwarteter bzw. richtiger Reaktion des Ratsuchenden auf die bestimmte Ausgabe (A), unter denselben Prämissen die selbe Ausgabe (A) erfolgt und/oder die Gewichtung von Ausgabe- Bausteinen (ABst) so geändert wird, daß die bestimmte Ausgabe (A) in Zukunft mit größerer Wahrscheinlichkeit als bisher auf treten kann.
daß, bei nicht erwünschter bzw. falscher Reaktion des Ratsu chenden auf die bestimmte Ausgabe (A), eine neue, andere Ausgabe (A) erfolgt und/oder die Gewichtung von Eingabe-Bausteinen (EBst) und/oder die Gewichtung von Ausgabe-Bausteinen (ABst) so geändert wird, daß die bestimmte Ausgabe (A) in Zukunft nur mit kleinerer Wahrscheinlichkeit als bisher auftreten kann, und
daß, bei erwarteter bzw. richtiger Reaktion des Ratsuchenden auf die bestimmte Ausgabe (A), unter denselben Prämissen die selbe Ausgabe (A) erfolgt und/oder die Gewichtung von Ausgabe- Bausteinen (ABst) so geändert wird, daß die bestimmte Ausgabe (A) in Zukunft mit größerer Wahrscheinlichkeit als bisher auf treten kann.
5. Rechner nach einem der vorstehenden Patentansprüche,
dadurch gekennzeichnet,
daß seine Ausgabe-Bausteine (ABst) nacheinander Langtext-Aus gaben (LT) bzw. Pakete (ABst) von Langtext-Ausgaben (LT) zur An regung eines Dialoges mit dem Benutzer ausgibt und
daß er im Kontext-Speicher (KS) auch eingegebene Fakten (b 1 . . . x 1) speichert, die er erst später verwendet, sobald sonstige, an sich zuvor einzugebende Prämissen eingegeben wurden.
daß seine Ausgabe-Bausteine (ABst) nacheinander Langtext-Aus gaben (LT) bzw. Pakete (ABst) von Langtext-Ausgaben (LT) zur An regung eines Dialoges mit dem Benutzer ausgibt und
daß er im Kontext-Speicher (KS) auch eingegebene Fakten (b 1 . . . x 1) speichert, die er erst später verwendet, sobald sonstige, an sich zuvor einzugebende Prämissen eingegeben wurden.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19873720195 DE3720195A1 (de) | 1987-06-16 | 1987-06-16 | Als expertensystem dienender rechner |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19873720195 DE3720195A1 (de) | 1987-06-16 | 1987-06-16 | Als expertensystem dienender rechner |
Publications (1)
Publication Number | Publication Date |
---|---|
DE3720195A1 true DE3720195A1 (de) | 1989-01-05 |
Family
ID=6329851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19873720195 Withdrawn DE3720195A1 (de) | 1987-06-16 | 1987-06-16 | Als expertensystem dienender rechner |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE3720195A1 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1991006908A1 (en) * | 1989-10-30 | 1991-05-16 | Universidade De São Paulo - Usp | Circuitry and microprogramming of a non-von neumann computer for acquisition of an automatic programming (software) |
DE4108310A1 (de) * | 1990-03-14 | 1991-09-26 | Hitachi Ltd | Wissensbank-verarbeitungssystem und expertensystem |
EP2674880A1 (de) * | 2012-06-12 | 2013-12-18 | The Boeing Company | Erzeugung eins optimalen Vergleichskriteriums in assoziativen Speichern |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2903413A1 (de) * | 1979-01-30 | 1980-08-07 | Paul Stefan Dr Puetter | Elektrische schaltung mit lernfaehigkeit |
GB2098772A (en) * | 1981-05-07 | 1982-11-24 | Fish Alan Newton | Improvements in learning machines and components thereof |
DE3600762A1 (de) * | 1985-02-07 | 1986-08-07 | N.V. Philips' Gloeilampenfabrieken, Eindhoven | Anpassungsfaehig ansprechendes system |
-
1987
- 1987-06-16 DE DE19873720195 patent/DE3720195A1/de not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2903413A1 (de) * | 1979-01-30 | 1980-08-07 | Paul Stefan Dr Puetter | Elektrische schaltung mit lernfaehigkeit |
GB2098772A (en) * | 1981-05-07 | 1982-11-24 | Fish Alan Newton | Improvements in learning machines and components thereof |
DE3600762A1 (de) * | 1985-02-07 | 1986-08-07 | N.V. Philips' Gloeilampenfabrieken, Eindhoven | Anpassungsfaehig ansprechendes system |
Non-Patent Citations (2)
Title |
---|
DE-Z.: HOLTZ, Klaus, LANGHELD, Erwin: Der selbstlernende und programmierfreie Assoziationscomputer. In: ELEKTRONIK 1978, Heft 14, S. 39-46, (1. Teil), Heft 15, S. 53-62 (2. Teil) * |
DE-Z.: WOLF, Gerhard: Assoziativspeicher- Prinzipien und Möglichkeiten der Realisierung. In: data report 11 (1976) Heft 2, S. 29-34 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1991006908A1 (en) * | 1989-10-30 | 1991-05-16 | Universidade De São Paulo - Usp | Circuitry and microprogramming of a non-von neumann computer for acquisition of an automatic programming (software) |
DE4108310A1 (de) * | 1990-03-14 | 1991-09-26 | Hitachi Ltd | Wissensbank-verarbeitungssystem und expertensystem |
US5493729A (en) * | 1990-03-14 | 1996-02-20 | Hitachi, Ltd. | Knowledge data base processing system and expert system |
DE4108310C2 (de) * | 1990-03-14 | 1998-10-22 | Hitachi Ltd | Verarbeitungssystem für eine Wissensbank in einem Expertensystem |
EP2674880A1 (de) * | 2012-06-12 | 2013-12-18 | The Boeing Company | Erzeugung eins optimalen Vergleichskriteriums in assoziativen Speichern |
US8914604B2 (en) | 2012-06-12 | 2014-12-16 | The Boeing Company | Creating optimal comparison criterion within associative memories |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Levine | A cognitive theory of learning: Research on hypothesis testing | |
Sperry | Mind, brain, and humanist values | |
EP2108139B1 (de) | Verfahren zur rechnergestützten regelung und/oder steuerung eines technischen systems, insbesondere einer gasturbine | |
DE102008020379A1 (de) | Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems | |
EP1183619A2 (de) | Situationsabhängig operierendes semantisches netz n-ter ordnung | |
DE60125536T2 (de) | Anordnung zur generierung von elementensequenzen | |
WO2005055134A2 (de) | Inferenzmaschine | |
DE3720195A1 (de) | Als expertensystem dienender rechner | |
DE10139682B4 (de) | Verfahren zum Generieren von neuronalen Netzen | |
WO2022106645A1 (de) | Verfahren und system zum verarbeiten von eingabewerten | |
Young et al. | Theories of learning | |
DE3609925C2 (de) | ||
Niels | Attributionen in der Mensch-Computer-Interaktion | |
WO2006005669A2 (de) | System zur informationsextraktion und/oder informationsbewertung | |
WO2006005665A2 (de) | Verfahren zur reaktion auf kontextänderungen mit einem neuronalen netz und neuronales netz zur reaktion auf kontextänderungen | |
Boden | An evaluation of computational modeling in cognitive science. | |
DE1234062B (de) | Lernfaehige Anordnung | |
WO2020178248A1 (de) | Autonomes selbstlernendes system | |
EP3931761A1 (de) | Autonomes selbstlernendes system | |
DE102021211115A1 (de) | Verfahren, Vorrichtung und System zur Interaktion mit Dritten | |
DE102024002685A1 (de) | Verfahren zur Konfiguration einer KI-Funktion in einem Fahrzeug | |
EP3710992A1 (de) | Künstliches neuronales netz und verfahren hierzu | |
DD217341A1 (de) | Kognitiver generalisator fuer assoziative erfahrungsspeicher und konditionierbare zuordner zum ausbilden hypothetischer verknuepfungen | |
Maki et al. | A Connectionist 10 A | |
DE102004045479A1 (de) | Verfahren zur flexiblen Repräsentation einer Sequenz mit einem neuronalen Netz und neuronales Netz |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8130 | Withdrawal |