[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE3720195A1 - Als expertensystem dienender rechner - Google Patents

Als expertensystem dienender rechner

Info

Publication number
DE3720195A1
DE3720195A1 DE19873720195 DE3720195A DE3720195A1 DE 3720195 A1 DE3720195 A1 DE 3720195A1 DE 19873720195 DE19873720195 DE 19873720195 DE 3720195 A DE3720195 A DE 3720195A DE 3720195 A1 DE3720195 A1 DE 3720195A1
Authority
DE
Germany
Prior art keywords
abst
output
memory
input
ebst
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19873720195
Other languages
English (en)
Inventor
Peter Prof Dipl Ing Gerke
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE19873720195 priority Critical patent/DE3720195A1/de
Publication of DE3720195A1 publication Critical patent/DE3720195A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)

Description

Schon seit vielen Jahren sind Expertensysteme Gegenstand umfang­ reicher Untersuchungen unter Fachleuten. Expertensysteme sollen im Rahmen der "Künstlichen Intelligenz" die menschliche Intelli­ genz zumindest partiell übertreffen. Dies gelingt bisher in re­ lativ engen Wissensdomänen. Es gibt darüber bereits eine ganze Reihe von einschlägigen umfangreichen Fachbüchern, z. B.
  • - Künstliche Intelligenz, Repräsentation von Wissen und natür­ lichsprachliche Systeme, Frühjahrsschule, Dassel (Solling), 5.-16. März 1984, Springer-Verlag 1985,
  • - Künstliche Intelligenz und Expertensysteme, Forschungsbericht der Nixdorf Comp. AG (St. E. Savory), Oldenbourg Verlag 1985,
  • - Feigenbaum und McCorduck, die 5. Computer-Generation, aus dem Englischen von T. Westermayr, Birkhäuser Verlag 1984 (engli­ scher Titel "The Fifth Generation, Artif. Intell. and Japan's Comp. Chall. to the World" Addison-Wesley Publish. Comp. 1983),
sowie sehr viele Aufsätze in Fachzeitschriften, vgl. z. B.
  • - ITT, Elektr. Nachrw. 60 (1986) H. 2.
Die Stärke heutiger Expertensysteme liegt in logischen Schluß­ folgerungen. Unzählige Fragestellungen bzw. Situationen des täg­ lichen Lebens sind aber nicht logisch, sondern nur aus dem Er­ fahrungswissen des Alltages, also durch "Weltwissen", zu beant­ worten. Dieses Weltwissen ist oft außerordentlich verflochten mit psychologischen Aspekten/Fakten und überdies im Gehirn des Menschen nichthierarchisch, assoziativ organisiert. Ein Experten­ system für Weltwissen wurde mit einem Rechner auf der Basis des Von-Neumann-Prinzips bisher nicht realisiert. Daher fällt die Leistungsfähigkeit bisheriger Expertensysteme am Rande ihrer Wis­ sensdomäne steil ab.
Die Erfindung strebt daher an, die Leistungsfähigkeit von Exper­ tensystemen an den Rändern ihrer Wissensdomänen durch besondere Prinzipien der Wissensspeicherung und der Inferenzstrategie zu verbessern. Dabei sollen erfindungsgemäße Prinzipien klassische Expertensysteme ergänzen können, oder aber auch eigenständige neuartige Expertensysteme bilden. Die erfindungsgemäßen Prinzi­ pien sollen den Rechner befähigen, Fakten zu gewichten, mög­ lichst auch weitgehend selbständig die Gewichtungen nachträglich zu ändern, nämlich bei Bedarf neue Gewohnheiten nach und nach zu bilden und alte Gewohnheiten nach und nach abzulegen. So können im Prinzip auch die rein logisch/rational nicht ableitbaren "Ausnahmefälle" berücksichtigt werden. Die genannten Funktionen lassen sich zwar mit Hilfe der erfindungsgemäßen Prinzipien im Prinzip auch auf Von-Neumann-Rechnern implementieren, jedoch be­ steht dann die erhebliche Gefahr unzumutbar langer Rechenzeiten.
Die Aufgabe der Erfindung ist also, ein neues Konzept für einen Expertensystem-Rechner zu bieten, der nicht nur eingegebenes Wissen anwendet, sondern vor allem - trotz relativ geringem Auf­ wand - auch nicht vorgeprägte, also "neue" Situationen mit einer gewissen Wahrscheinlichkeit ausreichend zu beherrschen versteht. Darüber hinaus zeigt die Erfindung einen Weg, die Rechenzeiten durch eine spezielle Rechnerstruktur zu verkürzen.
Diese Aufgabe wird durch die im Patentanspruch 1 genannten Maß­ nahmen gelöst.
Weiterbildungen der Erfindungen sind in den Unteransprüchen defi­ niert. Derartige Weiterbildungen sollen bei Bedarf auch eine ge­ wisse Lernfähigkeit bzw. selbständige Gewohnheitsänderungen auf­ weisen; der Rechner soll dann vor allem manche Entscheidungskri­ terien/Fakten stärker oder schwächer als bisher zu berücksich­ tigen beginnen, wenn er feststellt, daß der Katalog der von ihm zunächst berücksichtigten Fakten zu mangelhaft war.
Das Konzept der Erfindung und ihrer Weiterbildungen wird anhand der in den Figuren gezeigten Ausführungsbeispiele näher beschrie­ ben. Es zeigt die
Fig. 1 ein grob vereinfachtes Modell der mutmaßlichen menschlichen Denkstruktur, wobei dieses Modell als Vorbild für das erfin­ dungsgemäße Konzept diente,
Fig. 2 ein Beispiel der Struktur eines von der Erfindung benutzbaren Faktengedächnisses,
Fig. 3 ein Beispiel für ein möglicherweise von der Natur verwende­ tes Konzept, Wiederholungen von Situationen zu erkennen,
Fig. 4 ein Beispiel für ein technisches - im Prinzip bekanntes - Konzept zur Erkennung von Wiederholungen,
Fig. 5 ein Beispiel für das technische Konzept zur Nachbildung des in Fig. 1 gezeigten Modells des menschlichen Gehirns, und
Fig. 6 ein Beispiel für den Betrieb eines Mathematik-Expertensystems.
Die Erfindung wurde in Anlehnung an hypothetische Eigenschaften des menschlichen Gehirns konzipiert. Zu den für die Erfindung bemerkenswerten Gehirneigenschaften gehören in diesem Zusammen­ hang:
  • a) die starke Verflechtung des Weltwissens, d. h. des Wissens über Fakten und Gesetzmäßigkeiten aller Art,
  • b) die Beherrschung auch nicht vorgeprägter, also "neuer" Si­ tuationen,
  • c) im Idealfall zusätzlich die Fähigkeit des Selbst-Lernens, sowie
  • d) im Zusammenhang mit dem Selbst-Lernen ggf. die eigenständi­ ge Bewertung nützlicher und schädlicher Fakten.
Diese Eigenschaften sind in einer hypothetischen Struktur des Gehirns nach Fig. 1 implementiert. Dieses Gehirnmodell ent­ spricht also dem Konzept des erfindungsgemäßen Expertensystem- Rechners, der nicht völlig nach Von-Neumann-Prinzipien aufgebaut ist. Dieses Gehirnmodell/dieser Rechner entspricht also einem "beratenden Experten". Ein in Fig. 1 nicht gezeigter äußerer Ratsuchender kann also die Fähigkeit des Beraters/Gehirns = Ex­ pertensystem-Rechner nutzen. In einem (beim Gehirn langjährigen) Lernprozeß haben sich im Gehirn/Rechner zahlreiche zusammengehö­ rige Begriffskombinationen ("Gedanken-Bausteine") gebildet, - es sind dies die in Fig. 1 gezeigten Eingabe-Bausteine EBst und die im Prinzip identisch arbeitenden Ausgabe-Bausteine ABst. Im menschlichen Gehirn werden solche "Bausteine" durch entsprechen­ de Gehirnzellen gebildet. Im Rechner werden solche "Bausteine" nicht unbedingt durch eigene separate Hardware gebildet; sie können auch nur eigene besondere Softwareabschnitte darstellen; hierbei können die Bausteine EBst und ABst evtl. auch Teile der Hardware- oder Software-Einheiten S/P bzw. P/S sein, welche ih­ rerseits vor allem zu Serien/Parallelumsetzungen bzw. Parallel/ Serienumsetzungen dienen; die Bausteine EBst und ABst sind nur der besseren Darstellung wegen außerhalb dieser Einheiten S/P, P/S gezeichnet. Solche Gedanken-Bausteine EBst und ABst können also z. B. jeweils einzelnen Fragen und/oder Aufforderungen und/ oder Informationen über Fakten entsprechen.
Durch kurze Symbolfolgen, welche die Eingabe E bilden, werden zugehörige Eingabe-Bausteine EBst = a 1 . . . x 1 aufgerufen und mittels Serien/Parallelumsetzern S/P zu Mustern bzw. zu entspre­ chenden Codeworten aufgefächert. Diese sind mit dem Kontextspei­ cher KS verbunden, der auch der Verarbeitung dient, indem der Kontextspeicher KS Fakten einer Art jeweils Fakten anderer Art zuordnet und z. B. eine faktenbewertende/gewichtende Einheit Bew mitenthält. Auch dieser Kontext-Speicher KS kann durch Software­ abschnitte statt durch Hardware gebildet werden. Als Ergebnis der Verarbeitung wird vom Kontextspeicher KS ein Ausgabe-Bau­ stein ABst = a 2 . . . f 2 aufgerufen, welcher über einen Parallel/ Serienumsetzer P/S eine Ausgabe A, z. B. als Symbolfolge (Wort­ folge) an den in Fig. 1 nicht gezeigten Ratsuchenden übermittelt. Die Reaktion des Ratsuchenden wird wiederum als Symbolfolge auf den Eingang E gegeben und löst den nächsten Arbeitszyklus des Gehirns/Rechners aus. An die Stelle dieses äußeren Rückkopplungs­ kreises kann auch ein unmittelbarer innerer Rückkopplungskreis (serielle Übergabe sTr) treten, wobei die Rechnereingang/Gehirn­ eingang angebrachte Weiche W kontextgesteuert den Eingang E ab­ trennt. Die mittels des Kontextspeichers KS im Gehirnzentrum/ Verarbeitungszentrum des Rechners abgewickelten Denkvorgänge werden also über die im Bereich der Eingabe E liegende Weiche W entweder von außen, vgl. E, den Eingabe-Bausteinen EBst = a 1 . . . x 1 und damit dem Kontextspeicher KS aufgeprägt (äußere Einflüs­ se), oder sie werden intern im Gehirn/Rechner über den Rückkopp­ lungsweg KS-sTr-W geschlossen, wobei im zweiten Fall die Weiche W kontextgesteuert die äußeren Umgebungseinflüsse E auch abschot­ ten kann.
Die Erfindung ermöglicht, den Rechner auch so zu bauen, daß Speicherzellen die Funktionen von Neuronen des Gehirns überneh­ men. Bevorzugt werden hierbei die durch Nervenbahnen (Axone) her­ gestellten Beziehungen zwischen verschiedenen Neuronen durch Ver­ zeigerung der Speicherzellen, also durch Adreßbeziehungen zwi­ schen den Speicherzellen nachgebildet, die der Zusammenarbeit dieser Zellen ein möglichst assoziatives Speicherverhalten ge­ statten. Ein solcher Rechner orientiert sich also nicht mehr an Von-Neumann-Prinzipien.
Eine wichtige Rolle fällt der Bewertung Bew von aufgerufenen einzelnen der Begriffskombinationen/Eingangsbausteine EBst = a 1 . . . x 1 zu: die Bewertung sorgt dafür, daß vorteilhafte Ver­ bindungen im Neuronennetz vorläufig geschaltet und durch wie­ derholten Gebrauch ggf. ein höheres Gewicht zugeteilt erhalten, also weiter verstärkt werden (Prägung von Verhaltensweisen), al­ so schließlich Dauerschaltungen bilden, und daß unerwünschte Verbindungen bzw. unsinnige Gedankenkombinationen im Neuronen­ netz möglichst unterbleiben bzw. nach und nach unterdrückt wer­ den. Die prägungsverstärkende Bewertung spricht dann also beim Benutzen von zufällig einmal falsch geschalteten Verbindungen bzw. fehlerhaften Begriffskombinationen nicht oft genug mehr an und unvorteilhafte Schaltungen bilden sich wieder zurück.
Neben jenen Dauerschaltungen, die dem Langzeitgedächtnis ent­ sprechen, gibt es also im Kontextspeicher KS und/oder schon in Eingabe-Bausteinen EBst viele, allein durch Benutzung zusätzlich (!) wirksame, zeitlich abklingende Prägungseffekte. Ein bereits gebahnter Weg wird nach einer Inanspruchnahme vorübergehend noch leichter gangbar, so daß ein bevorzugter Wiederaufruf möglich ist. Auf diese Weise läßt sich zuvor gedachte Gedanken wie­ der aufsetzen, vgl. das Kurzzeitgedächtnis. Wird dieser vorge­ bahnte Weg aber nicht bald genug benutzt (oder gar als falsch erkannt), dann klingt die Bereitschaft ab, ihn in ähnlichen Si­ tuationen sofort zur Benutzung anzubieten.
Die eigentliche Informationsverarbeitung findet nach diesem Mo­ dell durch entsprechend verknüpfte Zuordnungen mit Hilfe des Kontextspeichers KS statt. Eine Voraussetzung hierfür sind die zuvor durch Erfahrung zu prägenden Verbindungen zum, vom und im Kontextspeicher KS.
Ein relativ einfaches Arbeitsprinzip für einen Kontextspeicher KS ist das Abspeichern aller wichtigen Fakten in der Reihenfol­ ge ihres zeitlich nacheinander erfolgenden Auftretens. Je weiter jeweils eine Gedankenverarbeitung/Beratungs-Prozeß fortschreitet, umso mehr Verarbeitungswege/Schalter/Kippstufen/Unterprogrammab­ schnitte werden aktiv einbezogen, die irgendwann - z. B. bei Über­ gang auf einen völlig anderen Beratungs-Prozeß - wieder zurück­ gestellt werden.
Die Fig. 2 zeigt ein einfaches Beispiel für ein Faktengedächtnis im Kontextspeicher KS: Der Rechner enthält Regelwissen. Eine In­ formation, eine Frage, ein Rat bzw. eine Aufforderung a 2 . . . f 2 wird durch Prämissen bzw. Fakten, nämlich durch Bausteine a 1 . . . x 1 aufgerufen. Der Expertensystem-Rechner muß den Ratsuchenden im Dialog sukzessiv nach solchen Prämissen fragen. Sobald der Rechner alle Prämissen/Fakten abfragte/klärte, die jeweils zur Erteilung eines Rates bzw. zu einer Aufforderung ausreichen, gibt der Rechner diesen Rat/Aufforderung ebenfalls als Ausgabe A über einen entsprechenden Ausgabe-Baustein ABst ab.
Als Beispiel diene eine Anlageberatung: Ein Ausgabe-Baustein/Aus­ gabe-Programmabschnitt ABst = a 2 des Beraters/Rechners möge "Ver­ dienen Sie über oder unter 100 000,- DM jährlich?" aussagen. Ei­ ne mögliche Antwort des Ratsuchenden heißt z. B.: "Ich verdiene über 100 000,- DM jährlich." Dieser Antwort ist z. B. der Einga­ be-Baustein EBst = a 1 zugeordnet. Der Rechner soll nun die Dialog­ führung zunächst nicht straff selbst übernehmen, sondern dem Ratsuchenden überlassen, wie es ein guter Anlageberater in der Eröffnungsphase des Gesprächs wohl auch macht. Wenn der Ratsu­ chende zufällig mit dem Eingabe-Baustein EBst = a 1 "Ich verdiene über 100 000,- DM jährlich" beginnt, muß z. B. die Ausgabe A eine Ausgabe-Frage AFF nach weiteren Fakten stellen; es muß also z. B. der Ausgabe-Baustein b 2 des Rechners "Besitzen Sie bereits Im­ mobilien?" aufgerufen werden. Fängt der Ratsuchende aber mit dem Stoßseufzer EBst = c 1 (z. B. "Ich habe über 1 Million Schulden") an, folgt aber nochmals der Ausgabe-Baustein ABst = a 2 wie oben, damit der Rechner den Dialog auf eine bewährte Antwort-Strategie eingrenzen kann.
In Fig. 2 bedeuten die dicken Punkte unter a 1 . . . x 1 jeweils ge­ speicherte Eingabe-Fakten EF, also gespeicherte Fakten a 1 . . . x 1. Die dadurch im Kontextspeicher KS entstehenden Muster sind durch­ numeriert, vgl. die fortlaufenden Musternummern 1 . . . 13. Muster Nr. 1 bedeutet also "Eingabe-Faktum a 1" bzw. "EBst a 1" ist auf­ gerufen. Muster Nr. 9 kennzeichnet einen Zustand, in dem bereits die vier Eingabe-Fakten a 1, b 1, c 1 und d 1 aufgerufen wurden. Mit den nach unten zeigenden Pfeilen wird symbolisiert, welche ge­ speicherten Fakten a 1 . . . f 1 zusammenwirken müssen, um einen je­ weils zugehörigen Ausgabe-Baustein ABst = a 2 . . . f 2 zu einer Ausgabe zu veranlassen (Pfeil nach oben). Ein Ausgabe-Baustein mit der Bezeichnung n 2 sei hier, der Übersichtlichkeit wegen, jeweils nur eine Frage nach einem Faktum mit der Bezeichnung n 1.
Der Rechner folgt einer Antwortstrategie, die unterschiedlich je nach Dialogeröffnung reagiert. Was geschieht nämlich, wenn der Ratsuchende unerwartete Fakten eingibt?: Wenn der Ratsuchende nicht mit a 1 beginnt, wird in diesem Beispiel der Dialog auf die von vorn ablaufende Folge a 1, b 1 . . . zurückgeführt. Fängt der Dialog z. B. mit der Eingabe "c 1 an, wird sich zunächst die in Muster Nr. 3 geprägte Strategie und anschließend Muster Nr. 12 einstellen, falls nun der Ratsuchende "a 1" eingab. Dieses Mu­ ster Nr. 12 sei "neu", d. h. es sei zuvor noch nie in einer Prä­ gungsphase berücksichtigt worden. Es gibt zuvor also keine Ver­ bindung zu einem Ausgabefaktum AFF, das allein die Kombination "a 1 + c 1 berücksichtigt. In den bereits geprägten Mustern Nr. 8, 9, 10 ist zwar die Kombination "a 1 + c 1 enthalten; sie reicht aber noch nicht zum Aufruf der dort zugehörenden Ausgabe-Baustei­ ne ABst, nämlich d 2, e 2, f 2 aus. Es sind nämlich noch nicht die Fakten b 1, d 1 bzw. e 1 als weitere Prämissen eingegeben. Demnach wirkt Muster Nr. 12 zunächst nur wie Muster Nr. 1 und bewirkt die Ausgabe AFF "b 2" = "Frage nach Faktum b 1". Falls daraufhin der Ratsuchende das Faktum b 1 eingibt, entsteht im Kontext-Spei­ cher KS das Muster Nr. 8 mit der Ausgabe des Ausgabe-Bausteins d 2. Damit ist die ursprünglich geprägte Folge mit den Mustern Nr. 9 und 10 als weitere Folgefragen wiederhergestellt. - Ähn­ lich verläuft der Dialog bei Beginn mit dem Eingabe-Faktum d 1, vgl. Muster Nr. 4. Nach der Eingabe der Fakten a 1 und b 1 (Mu­ ster Nr. 13) wird nach Faktum c 1 gefragt. Daraufhin entsteht Mu­ ster Nr. 9 mit der Frage nach e 1, wobei die Frage nach dem be­ reits bekannten Faktum d 1 ausgelassen wird. Der Rechner verhält sich also, dank der Speicherung der jeweils früher eingegebenen Fakten im Kontext-Speicher KS, intelligent!
Aber wie läßt sich eine Eindeutigkeit der Decodierung der Muster a 1 . . . f 1 . . . x 1 auf die Ausgangs-Bausteine a 2 . . . f 2 erreichen? Wa­ rum erzeugt also z. B. Muster Nr. 10 nicht gleichzeitig Fragen nach allen Fakten a 1 bis f 1? - Die Eindeutigkeit wäre z. B. mit einer Binär-Decodierung möglich, die gezielt auch hemmende Ver­ bindungen knüpft. Ein zugehöriger Prägungsmechanismus ist aller­ dings schwer realisierbar. Wenn man jedoch für den Faktenspei­ cher z. B. von der Funktion eines multistabilen, aus vielen Kipp­ stufen bestehenden Flip-Flop ausgeht, bei dem sich nur die ein­ zige Kippstufe mit den meisten Erregungsüberschüssen durchsetzt, wird das Problem auf eine Gewichtung der Erregung und eine Maxi­ mum-Bestimmung im Spektrum der Erregungen zurückgeführt: Das Aus­ gabefaktum mit den derzeit stärksten Erregungsbeiträgen wird aus­ gewählt: Muster Nr. 10 kann dann nur den Ausgabe-Baustein f 2, Mu­ ster Nr. 9 nur den Ausgabe-Baustein e 2 aufrufen! Komplexe Muster, vgl. Nr- 10, können daher die weniger komplexen Muster, vgl. Nr. 9, unterdrücken, was bedeutet, daß weitergehende Erfahrungen ur­ sprüngliche Erfahrung nicht mehr "zu Wort" kommen lassen. Eine ursprüngliche Erfahrung, vgl. Nr. 1 und 7, kann dann nur durch das ursprüngliche Faktumsmuster/Ereignismuster EF aufgerufen wer­ den, also durch a 1 bzw. durch a 1 + b 1.
Während also einerseits Muster größerer Aktivität solche geringe­ rer Aktivität unterdrücken, dürfen andererseits Muster geringe­ rer Aktivität keine Ausgabe-Bausteine ABst aufrufen, die größe­ ren Aktivitäten zugeordnet sind. Wenn im Gehirn/Rechner z. B. mit Fakten a 1, b 1, c 1 nur das Muster Nr. 8 aufgerufen wird; wie wird dann verhindert, daß im Gehirn/Rechner auch die Muster Nr. 9 und 10 aktiviert werden?: dadurch, daß vier bzw. fünf verschiedene erregende Aktivitäten von vier bzw. fünf verschiedenen Eingangs- Bausteinen EBst notwendig sind, um die mit der Prägung und mit Gewichtungen festgeschriebene Zündschwelle von hemmenden Ein­ flüssen zu überwinden! - Der Auswahlalgorithmus ist also folgen­ dermaßen zu ergänzen: Das Ausgabefaktum mit den meisten bzw. stärksten Erregungsbeiträgen wird ausgewählt unter der Voraus­ setzung, daß durch die Erregungsbeiträge die Zündschwelle, also eine bestimmte Gewichtung überschritten wird. Sollten sich dann mehrere Ausgabefakten dieser Auswahl stellen, erfolgt die end­ gültige Auswhal nach einer plausiblen Strategie, z. B. allein durch Zufall, oder gemäß Ähnlichkeiten zu vorhergehenden Aus­ gaben, oder nach irgendeiner anderen plausiblen Strategie.
Wie eingangs erwähnt, soll der Rechner gemäß der Erfindung auch neue, noch nicht erfahrene Situationen mit gewisser Wahrschein­ lichkeit beherrschen können. Voraussetzung dafür ist, daß die neuen Situationen bereits erfahrenen Situationen in gewisser Weise ähnlich sind, und daß dies durch eine "Ähnlichkeitsco­ dierung" berücksichtigt wird. Wie kann man sich eine solche "Ähnlichkeitscodierung" vorstellen? Das läßt sich an Fig. 2 schlecht demonstrieren, weil die Muster Nr. 1 bis 10 alle ein­ ander sehr unähnlich sind und jeweils zu sehr verschiedenen Aus­ gaben führen. Würde z. B durch eine neue Situation das Muster Nr. 11 entstehen, bei dem zusätzlich der Eingabe-Baustein EBst "x 1" aktiviert wird, so erfolgt dennoch die Ausgabe f. Sollte sich danach diese Ausgabe als "verkehrt" herausstellen, so muß die neue, richtige Zuordnung erst "gelernt" werden! Ähnlichkeits­ codierung bedeutet hier also: es werden zunächst lediglich die bereits "gelernten" Zuordnungen ausgewertet, bisher nicht akti­ vierte Speicherplätze werden ignoriert.
Das gewissermaßen "statische" Auswerten von gespeicherten Fakten a 1 . . . x 1 ohne Berücksichtigung der Reaktionen der Ratsuchenden, genügt nicht, um allen wichtigen Lebenssituationen gerecht zu werden. In einem Dialog zwischen Menschen wird z. B. auf wieder­ holte Fragen (z. B.: "Stimmt es, daß +3 + 6 = 6" ist′") entweder ge­ antwortet: "Das haben Sie doch schon einmal gefragt!" - Oder aber der Gefragte/Rechner rechnet erneut "+3 + 3 = 6", indem er die wie­ derholte Eingabe als neue Eingabe wertet. Auf welche Weise die Evolution diese nicht einfache, aber für die menschliche Intel­ ligenz bedeutungsvolle Aufgabe gelöst hat, ist unbekannt. Viel­ leicht ist sie mit unserem Kurzzeitgedächtnis verbunden. Eine der Möglichkeiten deutet Fig. 3 an: Durch die zusätzliche, kurz­ fristige Erregungsverstärkung/Gewichtung "bei Gebrauch" dringen wiederholte Ereignisse/Situationen Sitx von Wiederholung zu Wie­ derholung tiefer in den Abbildungskomplex Abbx ein und rufen da­ mit verschiedene, durch die Zeitfolge t 1 . . . t 3 modifizierte Be­ deutungen/Gewichtungen der Abbildungen Abbx auf, die entweder individuell mit x 1, x 2, x 3 (Beispiel: Addition "+3 + 3 + 3") oder allgemein mit erster Wiederholung 1. Rep., zweiter Wiederholung 2. Rep. usw. (Beispiel: Antwort auf wiederholte Frage) ausgewer­ tet werden. Dies ist sicher keine sehr exakte Diskriminierung besonders für den Fall, daß sich Wiederholungen in der Folge von Eingaben besonders oft häufen.
Technisch lassen sich mehrere Lösungen hierfür denken. Fig. 4 beschreibt einen Weg, der partiell auch von der Evolution be­ schritten sein könnte. Die Aktivierung von Speichern bzw. von Adreßräumen folgt einer Ereignisspur SitSp, in der nur jeweils ein Speicher bzw. ein Adreßraum aktiv ist (wie es auch im mensch­ lichen Bewußtsein in ähnlicher Weise bei einer Gedankenfolge der Fall ist). Zum Beispiel wird in einem Speicher die Addition von "+3 + 4" registriert, wobei dieser Speicher jeweils erneut aktiviert wird, sobald diese Addition von den betreffenden Eingabe-Bausteinen EBst angeregt wird. - Die Eingabe-Bausteine EBst werden übrigens am besten vom Rechner impulsweise aufgerufen, damit die von sol­ chen Eingabe-Bausteinen angeregten Folgeketten nicht ungebremst durchlaufen können.
Anhand von Fig. 2 wurde eine Dialogregel erläutert, die bereits in allen Einzelheiten gelernt und fest als Dauerschaltung ge­ speichert ist - es gibt hier sozusagen bereits eine in das "Un­ terbewußtsein übergegangene Strategie, nach welcher der Dialog erfolgreich abgewickelt werden kann. In vielen Fällen wird es aber eine solche geschlossene Strategie nicht geben. Dann muß vom Gehirn/Rechner "bewußt" erkannt werden können, daß die mit­ geteilten Fakten noch nicht ausreichen. Diese Erkenntnis des Mangels stößt daraufhin einen bewußten Gedankengang bzw. einen Verarbeitungsprozeß des Rechners zum Aufspüren noch fehlender/ relevanter Fakten an. Der Mensch geht dabei im allgemeinen ziem­ lich wahllos die taxonimischen Zusammenhänge durch, was wegen der starken Verflechtung der Begriffe, der erkannten Gesetzmä­ ßigkeiten und der damit bei ihm verbundenen Assoziationen rela­ tiv schnell, und zwar "assoziativ", abläuft. Er kann aber auch einer strengen, übergeordneten, also "gelernten Strategie fol­ gen, z. B. dem "backward chaining".
Wie die Evolution das "Erkennen der Unvollständigkeit" gelöst hat, ist wiederum unbekannt. Technisch läßt sich dies mit wenig Aufwand angenähert z. B. durch ein Zeitglied/"watch dog" reali­ sieren, welches signalisiert, wenn Reaktionen ausbleiben. Läuft das Zeitglied ab, ohne daß eine noch notwendige Eingabe E auf­ trat, bedeutet dies "Eingabe ist unvollständig", wodurch darauf­ hin notwendige Folgeaktivitäten angestoßen werden können.
Ein Expertensystem braucht im allgemeinen nicht aus der Erfah­ rung zu lernen, weil ihm der Knowledge-Engineer bereits bewerte­ tes Wissen eingibt. Später vielleicht realisierbare "selbstler­ nende Expertensysteme" müssen die Bewertung aus "eigener Kraft" vornehmen und brauchen dazu eigene Wertmaßstäbe. Solche Wertmaß­ stäbe können in voller Differenziertheit zuvor auch vom Menschen eingegeben werden. Noch eine Stufe komplizierter wird es jedoch, wenn das Expertensystem den Wertmaßstab selbst aufzubauen hat. In jedem Fall sollte dann aber dem Expertensystem ein "Bewer­ tungsnukleus" für Erfolg/Mißerfolg mitgegeben werden, der sich nach dem jeweiligen Einsatzgebiet des Expertensystems richtet.
Selbstlernen heißt aus eigener Erfahrung lernen. Die Umwelt bie­ tet Erfahrungen an, die das Expertensystem eigenständig auswer­ ten soll. Dazu muß das Expertensystem auch die "Sprache" der Um­ welt verstehen. Die Umwelt wird sich im allgemeinen - im weite­ sten Sinne - natürlichsprachlich präsentieren, also sollte das Expertensystem auch natürlichsprachlich zu programmieren sein. Dies ist offenbar eine Voraussetzung für selbstlernende Exper­ tensysteme (wobei es sich bei einer spezifischen Umwelt auch einmal um eine spezifische "natürliche" Sprache handeln mag, z. B. um bildliche Muster).
Fig. 5 zeigt beispielhaft einige Grundzüge eines entsprechen­ den bevorzugten technischen, wenig aufwendigen Konzepts, wobei hier der Übersichtlichkeit wegen die Funktion des "Selbstler­ nens" ausgeklammert ist. Das Konzept wird in einem speziellen Rechner realisiert, in welchem Speicherzellen, bzw. entsprechen­ de kleine Softwareabschnitte, die Funktion von Neuronen des Ge­ hirns übernehmen. An die Stelle der Verdrahtung treten also z. B. "Zeiger", also Adressenhinweise, vgl. Adr, die vor allem durch Software gebildet sein können, mit deren Hilfe von einer Zelle auf Folgezellen verwiesen wird. Es gibt ein Repertoire von durch­ numerierten Eingabe- bzw. Ausgabe-Bausteinen, vgl. EBstNr und ABstNr, die auch reine Software-Bausteine darstellen können und die teils der Eingabe E, teils der Ausgabe A, teils beiden, vgl. E/ABst, zugeordnet sind. Über eine Weiche W, die ebenfalls evtl. durch einen Softwareabschnitt statt durch reine Hardware gebil­ det wird, ist es möglich, ausgelesene Ausgabe-Bausteine ABst oh­ ne Beeinflussung von außen wieder direkt einem E/ABst des Rech­ ners zuzuführen. Jedem Bausteine EBst und ABst ist ein Langtext LT zugeordnet, der dem Ratsuchenden verständlich ist.
Jedem solchen Baustein EBst, ABst und/oder E/ABst ist eine Spei­ cherzelle bzw. ein entsprechender Adreßraum zugeordnet, in wel­ chem die Adressen, vgl. Adr, der anzusteuernden Kontext-Speicher­ zellen, vgl. KoSZ bzw. entsprechende Adreßräume in einem großen Speicher KS, vgl. Fig. 1, angegeben sind. Den Bausteinen E/ABst ist eine Steuereinheit StKoS zugeordnet, welche die Ansteuerung der adressierten Kontext-Speicherzellen KoSZ vornimmt. Bei Auf­ ruf einer solchen Bausteinspeicherzelle, vgl. E/ABst, werden al­ so die betreffenden Kontext-Speicherzellen, vgl. Adr in E/ABst sowie KoSZ, z. B. gleichzeitig, oder der Reihe nach, angesteuert.
Jede Kontext-Speicherzelle, vgl. KoSZ, enthält ein Feld, vgl. MA, in welchem Mehrfachaufrufe eingetragen werden können. Durch ih­ nen zugeordnete Adressen Adr ist angegeben, welche Funktionen Fkt anschließend abhängig von der Anzahl der Mehrfachaufrufe MA anzusteuern sind. Den Kontext-Speicherzellen KoSZ ist eine Steu­ ereinheit StABst zur Ansteuerung der Ausgabe-Bausteine ABst zu­ geordnet. Hierzu enthält jede Kontext-Speicherzelle KoSZ die Adressen ADr aller ihr zugewiesenen Ausgabe-Bausteine ABst, zu­ sammen mit der dem Baustein jeweils zugeordneten Eingangsnummer ENr, falls die betreffenden Ausgabe-Bausteine ABst mehrere ver­ schiedene Eingänge ENr = E 1 . . . En haben. Vor jeder aufgerufenen Kontext-Speicherzelle KoSZ aus werden sämtliche zugeordneten Ausgabe-Bausteine ABst gleichzeitig oder in Gruppen oder seriell nacheinander angesteuert und in noch zu beschreibender Weise be­ arbeitet. Abhängig von der Vorgeschichte, z. B. von der Anzahl der Mehrfachaufrufe MA, lassen sich die Adressen der anzusteu­ ernden Ausgabe-Bausteine ABst modifizieren, so daß entsprechend andere Ausgabe-Bausteine ABst erreicht werden.
Die verschiedenen Eingänge E 1 . . . En der Ausgabe-Bausteine ABst können abhängig von der ansteuernden Kontext-Speicherzelle KoSZ mit unterschiedlichen Gewichten programmiert sein, vgl. GZ, also z. B. entsprechende Gewichtswerte GZ speichern. Bei jedem Eingang, der von einer aktiven Kontext-Speicherzelle KoSZ angesteuert wird, wird ein Aktivitätskennzeichen A′ gesetzt. Dieses Aktivi­ tätskennzeichen A′ repräsentiert die Speicherwirkung der Kontext- Speicherzellen KoSZ. Zusätzlich läßt sich - falls der oben be­ schriebene Effekt der Kurzzeitspeicherung mit einbezogen werden soll - je Eingang E 1 . . . En mit Hilfe eines Zählers in GZ eine "Zeitspur" legen, die bei der Bestimmung des resultierenden Ein­ gangsgewichtes GZ berücksichtigt wird. Anstelle der Weiterzäh­ lung aller solcher dezentral in GZ gespeicherten Zeitspuren kann im Prinzip auch eine einzige Zentrale ZentZSp gewisser­ maßen "zurück" gezählt werden. Bei der Auswertung der resultie­ renden Eingangsgewichte wird der jeweils abgefragte dezentrale Zählerstand in GZ mit dem Zählerstand der zentralen Zeitspur ZentZSp in Beziehung gesetzt. Im Prinzip können auch alle ge­ speicherten GZ-Zeitspurwerte von einem zentralen Zeitspur-Gene­ rator ZentZSp des Rechners automatisch in fixen Zeitabständen verkleinert werden, entsprechend der für die betreffende Zelle GZ gewünschten Restdauer des Kurzzeitgedächtnisses. Dieser Gene­ rator ZentZSp kann auch dazu dienen, um abhängig vom Zeitverlauf - vgl. "früher" und "später" in der unten beschriebenen Fig. 6 - unterschiedliche Kontext-Speicherzellen KoSZ anzusteuern.
In jedem Ausgabe-Baustein ABst bzw. in jeder entsprechenden Speicherzelle ABst bzw. in jedem entsprechenden Adreßraum muß ein Schwellwert Schw eingetragen werden, der jeweils durch (die Summe der) Eingangsgewichte, sobald diese durch Aktivitätskenn­ zeichen A′ aktiviert sind, überschritten werden muß, wenn der betreffende Baustein ABst in den noch zu beschreibenden ABst- Auswahlvorgang miteinbezogen werden soll. - Weiterhin ist mit einer mitgespeicherten Ausgabe-Baustein-Nummer ABstNr ein zum betreffenden Ausgabe-Baustein ABst gehörender spezieller Lang­ text LT erreichbar.
Im betrachteten Zyklus mögen von den (durch den Eingabe- und/oder Ausgabe-Baustein) aufgerufenen Kontext-Speicherzellen KoSZ alle ihnen zugeordneten Eingänge E 1 . . . En der Ausgabe-Bausteine ABst bereits aktiviert worden sein. Jetzt kann der Auswahlprozeß zur Bestimmung eines einzigen anzuregenden Ausgabe-Bausteins ABst beginnen. Hierzu werden alle betreffenden Ausgabe-Bausteine ABst, z. B. der Reihe nach, ausgelesen, vgl. Maximum-Suche MaxS. In je­ dem Ausgabe-Baustein ABst werden die resultierenden aktiven, ge­ speicherten Eingangsgewichte GZ aufsummiert, im Maximum-Register MaxReg als Wert lastMax gespeichert, falls dort bisher ein klei­ nerer Wert lastMax gespeichert war, und mit der im betreffenden Ausgabe-Baustein ABst gespeicherten Schwelle Schw verglichen:
Wird die Schwelle Schw überschritten, so kommt der betreffende Ausgabe-Baustein ABst in die engere Wahl und wird im Maximum-Re­ gister MaxReg als Kandidat ABstAdr eingetragen. Ist die Zahl der aktiven Eingangsgewichte GZ aber kleiner als die im Maximum-Re­ gister MaxReg vermerkte Zahl lastMax, so kann der betreffende Ausgabe-Baustein ABst nicht ausgewählt und daher nicht als Kan­ didat ABstAdr eingetragen werden. Übertreffen aber zu einem spä­ teren Zeitpunkt die Eingangsgewichte GZ die im Maximum-Register MaxReg gespeicherte Zahl, so wird der betreffende Ausgabe-Bau­ stein ABst neuer Kandidat für die Auswahl, indem seine Adresse und das aufsummierte Gewicht GZ der betreffenden Eingänge E 1 . . . En auf Kosten des vorigen Kandidaten im Maximum-Register MaxReg eingetragen wird, vgl. ABstAdr. Ist das aufsummierte Gewicht GZ aller Eingänge E 1 . . . En eines Ausgabe-Bausteins ABst aber gleich der Zahl lastMax eines anderen Kandidaten ABstAdr im Maximum-Re­ gister MaxReg, so kann eine beliebige Strategie gewählt werden, z. B. "Überschreiben" der Adresse des bisherigen Kandidaten ABst- Adr, oder "vergessen".
Wenn alle betreffenden Ausgabe-Bausteine ABst bei der Maximum­ suche MaxS durchgeprüft sind, kann ein Such-Ende-Baustein SEnd das Transferglied S steuern, um mittels des im Maximum-Register MaxReg gespeicherten Kandidaten den betreffenden Ausgabe-Bau­ stein ABst mittels seiner Nummer ABstNr anzuregen, am Ausgang A einen Langtext LT auszugeben und/oder direkt wieder über die Wei­ che W zu einem weiteren Zyklus auf einen E/A-Baustein E/ABst einzuwirken.
Um den Aufwand zur Herstellung eines solchen Rechners abzu­ schätzen, hier ein grob geschätztes, einfaches Zahlenbeispiel:
Es gebe m = 104 Ausgabe-Baustein ABst. Jeder solcher Baustein ABst ist also 14 Bit zu adressieren. Ferner gebe es n = 104 Kontext-Speicherzellen KoSZ mit gleichem Adressieraufwand. Von jedem Baustein E/ABst, der die Ansteuerung des Kontextspeichers KS steuert, seien maximal p = 102 Kontext-Speicherzellen KoSZ ansteuerbar. Damit benötigt jeder solcher Bausteine E/ABst 1400 bit. Die Anzahl der E/ABst ist z. B. gleich der Anzahl der Aus­ gabe-Bausteine ABst, also 104. Es werden für die Bausteine E/AB st dann 1,4 · 107 Bit gebraucht.
Jede Kontext-Speicherzelle KoSZ möge maximal 102 Ausgabe-Bau­ steine ABst erreichen können. Jeder Ausgabe-Baustein ABst habe selbst maximal 102 Eingänge E 1 . . . En; zur Adressierung eines dieser Eingänge sind 7 Bit nötig. Adresse und Eingang eines Aus­ gabe-Bausteins ABst erfordern also 14 Bit + 7 Bit =21 Bit. Für die 102 zu adressierenden Ausgabe-Bausteine ABst werden je Kon­ text-Speicherzelle KoSZ also 2100 Bit gebraucht, für 104 Kontext- Speicherzellen KoSZ sind dies also etwa 2,1 · 107 Bit (der Bit­ bedarf für Mehrfachaufruf ist hierbei vernachlässigbar).
Der Bitbedarf jedes Ausgabe-Bausteins ABst entspricht im wesent­ lichen den Speicherzellen, die den 102 Eingängen E 1 . . . En zuge­ ordnet sind. Dies sind insgesamt z. B. 1500 Bit je Ausgabe-Bau­ stein ABst. Hinzu kommen z. B. maximal 500 Bit für den Langtext LT je Ausgabe-Baustein ABst; zusammen also ca. 2000 Bit. Die Summe über alle Ausgabe-Bausteine ABst beträgt demnach etwa 2 · 107 Bit.
Insgesamt handelt es sich bei diesem Beispiel also um einen Spei­ cheraufwand von weniger als 60 Mbit. Dies ist im Prinzip bereits mit weniger als 15 der künftigen 4 Mbit-Chips zu bewältigen.
Zum Fassen eines Gedankens sind im allgemeinen die meisten Schrit­ te für die Aktivierung der Eingänge E 1 . . . En der Ausgabe-Baustei­ ne ABst notwendig. In diesem Beispiel werden von einer einzigen Kontext-Speicherzelle KoSZ 102 Verarbeitungsschritte zur Akti­ vierung von Eingängen E 1 . . . En der Ausgabe-Bausteine ABst veran­ laßt. Mit maximal 102 angesteuerten Kontext-Speicherzellen KoSZ beträgt die Anzahl der Verarbeitungsschritte hier lediglich 104. Für die Maximum-Suche MaxS werden alle 104 Ausgabe-Bausteine AB st abgefragt. Im diskutierten Fall sind also im wesentlichen (unter Vernachlässigung geringerer Beträge) 20 000 Verarbeitungs­ schritte durchzuführen. Beträgt die Verarbeitungszeit 1 µs je Schritt, dann erfolgt die Auswahl eines Gedankens in etwa 20 ms.
Natürlich kann man auch von völlig anderen Vorgaben ausgehen, vor allem abhängig von gesammelten Erfahrungen, welche Anzahlen für "Weltwissenkomponenten" in praktischen Fällen je nach Sach­ gebiet wirklich relevant sind. Das kann allerdings mitunter auch zu wesentlich größeren Anzahlen als hier angenommen führen.
Mit welchen Gewichten GZ welche Eingänge E 1 . . . En zu belegen sind, ist z. B. ebenfalls eine Frage der Erfahrung. Sicherlich wird man zunächst mit aufwandsarmen Lösungen beginnen, die z. B. sogar von einheitlichen Eingangsgewichten ausgehen und die zu­ nächst auch auf die Berücksichtigung von Zeitspuren verzichten.
Anschließend kann man diese Einschränkungen fallenlassen und nach und nach den Aufwand jeweils nach dem Experten-Sachgebiet, für welches der Rechner eingesetzt werden soll, optimieren.
Zur Erhöhung der Rechengeschwindigkeit kann der erfindungsgemäße Rechner, wie es auch für andere Expertensystem-Rechner vorgese­ hen ist, mit vielen selbständigen Prozessoren aufgebaut werden, die verstreut in vielen Funktionseinheiten des Rechners ange­ bracht sind und die zeitlich weitgehend unabhängig voneinander und weitgehend gleichzeitig, statt seriell nach dem Von-Neumann- Prinzip arbeiten.
Die Erfindung eignet sich ganz besonders für Expertensystem-Rech­ ner für nichtmathematische Wissensdomänen, wobei das zur Verfü­ gung gestellte Wissen auch in assoziativen Speichern gespeichert sein kann. Dementsprechend sind bei der Erfindung die Adressen im Regelfall durch speicherinhaltorientierte Zeiger gebildet, welche jeweils auf einen bestimmten Faktenkomplex/Gedankenkom­ plex hinweisen.
Expertensystem-Rechner für rein mathematische Wissensdomänen wird man im allgemeinen mit Hilfe von arithmetisch-logischen Einheiten aufbauen, welche seriell Befehle verarbeiten und damit nach Von-Neumann-Prinzipien aufgebaut und betrieben werden. An sich ist es jedoch möglich, auch einen Mathematik-Expertensy­ stem-Rechner erfindungsgemäß aufzubauen und zu betreiben. Fig. 6 zeigt ein einfaches Beispiel für den Betrieb eines solchen Rech­ ners, und zwar beschreibt dieses Beispiel ausschnittsweise den Potenzrechnungs-Betrieb. In der linken Spalte ist gezeigt, daß am Rechnereingang, z. B. bei einem E/ABst-Baustein, vier ver­ schiedene Begriffe eingegeben werden, welche Assoziationen aus­ lösen: Nämlich die Begriffe "2", "3", "hoch" sowie "=". Das in Fig. 6 gezeigte Beispiel ist besonders insofern interessant, als es hier auf die zeitliche Folge dieser eingegebenen Begriffe an­ kommt. "23" ergibt nämlich ein anderes Resultat als "32". In den Kontext-Speicherzellen KoSZ wird nicht nur registriert, daß die Begriffe "2" und "3" in den Rechnereingang E/ABst eingegeben wurden, sondern es wird auch die zeitliche Folge dieser Eingaben mit Hilfe des zentralen Zeitspur-Generators ZentZSp registriert. In den Kontext-Speicherzellen KoSZ wird nämlich registriert, ob zuerst der Begriff "2" oder der Begriff "3" eingegeben wurde, vergleiche "früher" und "später", oder ob die umgekehrte Reihen­ folge eingegeben wurde. Der Kontext-Speicher steuert schließlich die Ausgabe-Bausteine ABst "23" oder "32" entsprechend der ein­ gegebenen Reihenfolge der Begriffe "2" und "3" an, so daß als Langtext LT am Rechnerausgang A schließlich das Ergebnis "8" oder "9" ausgegeben wird. Der Generator ZentZSp kann hierbei dazu dienen, um abhängig von der zeitlichen Folge der Eingaben, vgl. "früher" und "später", unterschiedliche Kontext-Speicher­ zellen KoSZ anzusteuern. Der Ausgabe-Baustein ABst wird hierbei überdies erst dann endgültig angesteuert, wenn als Eingabe-Be­ griff zusätzlich der Begriff "=" zur Signalisierung des Endes der Eingabe eingegeben wurde, wobei dieser Begriff nun die Maxi­ mumsuche MaxS auslöst, vergleiche auch Fig. 5. S bezeichnet in Fig. 6 jene Schwelle, die überschritten werden mußte, damit der betreffende Ausgabe-Baustein ABst aufgerufen wurde.

Claims (5)

1. Als Expertensystem dienender Rechner, dadurch gekennzeichnet, daß er deutlich abweichend von Von-Neumann-Prinzipien aufgebaut und betrieben ist, indem er vor allem rein speicherplatzadres­ siert betriebene Speicher, rein serielle Abarbeitungen von Pro­ grammschritten sowie die Verwendung von arithmetisch-logischen Einheiten und von speicherplatzorientierten Adressen ersetzt durch assoziativ betriebene Speicher, durch parallele Bearbei­ tungen von Gedankenkombinationen und durch speicherinhaltsorien­ tierte Adressen/Zeiger,
daß er speziellen Gedankenkombinationen/Datenblöcken/Fakten/ Anregungen entsprechende Eingabe-Bausteine (EBst) mit assozia­ tiven Speichereinheiten (EBst) sowie Ausgabe-Bausteine (ABst) mit assoziativen Speichereinheiten (ABst) enthält, zwischen denen ein Verknüpfungsteil/Kontext-Speicher (KS) mit assoziati­ ven Speichereinheiten (KS) eingefügt ist, und
daß der Kontext-Speicher (KS) multistabil in dem Sinne steuer­ bar ist, daß er, je nach Gewichtung der einzelnen, von den Eingabe-Bausteinen (EBst) und/oder von seinen einzelnen akti­ vierten Kontext-Speicherzellen (KoSZ) ausgehenden Anregungen, ein Muster von Ausgangssignalen an seinen Ausgängen abgibt, welches einzelne der Ausgangs-Bausteine (ABst), abhängig von früheren, auf die Eingabe (E) wirkenden Prämissen, steuert.
2. Rechner nach Patentanspruch 1, dadurch gekennzeichnet, daß die Gewichtung des Einflusses eines Eingabe-Bausteines (EBst) auf den Kontext-Speicher (KS) abhängig ist von der Anzahl der von diesem Eingabe-Baustein (EBst) pro Zeiteinheit in der letzten Zeit auf den Kontext-Speicher bzw. auf Ausgabe-Bausteine (ABst) ausgehenden Anregungen.
3. Rechner nach Patentanspruch 1 oder 2, dadurch gekennzeichnet, daß die Gewichtung des Einflusses des Kontext-Speichers (KS) auf einen Ausgabe-Baustein (ABst) abhängig ist von der Anzahl der auf diesen Ausgabe-Baustein (ABst) pro Zeiteinheit in der letzten Zeit wirkenden Anregungen.
4. Rechner nach einem der vorhergehenden Patentansprüche, beson­ ders nach Patentanspruch 3, dadurch gekennzeichnet, daß ein watch-dog-Zeitglied angebracht ist, welches überprüft, ob eine nach einer bestimmten Ausgabe (A) eines Ausgabe-Bau­ steines (ABst) erwartete Reaktion, also ob eine dieser Reaktion entsprechende Eingabe (E), in einer bestimmten Zeitspanne nach der bestimmten Ausgabe (A) eintritt oder ausbleibt,
daß, bei nicht erwünschter bzw. falscher Reaktion des Ratsu­ chenden auf die bestimmte Ausgabe (A), eine neue, andere Ausgabe (A) erfolgt und/oder die Gewichtung von Eingabe-Bausteinen (EBst) und/oder die Gewichtung von Ausgabe-Bausteinen (ABst) so geändert wird, daß die bestimmte Ausgabe (A) in Zukunft nur mit kleinerer Wahrscheinlichkeit als bisher auftreten kann, und
daß, bei erwarteter bzw. richtiger Reaktion des Ratsuchenden auf die bestimmte Ausgabe (A), unter denselben Prämissen die­ selbe Ausgabe (A) erfolgt und/oder die Gewichtung von Ausgabe- Bausteinen (ABst) so geändert wird, daß die bestimmte Ausgabe (A) in Zukunft mit größerer Wahrscheinlichkeit als bisher auf­ treten kann.
5. Rechner nach einem der vorstehenden Patentansprüche, dadurch gekennzeichnet,
daß seine Ausgabe-Bausteine (ABst) nacheinander Langtext-Aus­ gaben (LT) bzw. Pakete (ABst) von Langtext-Ausgaben (LT) zur An­ regung eines Dialoges mit dem Benutzer ausgibt und
daß er im Kontext-Speicher (KS) auch eingegebene Fakten (b 1 . . . x 1) speichert, die er erst später verwendet, sobald sonstige, an sich zuvor einzugebende Prämissen eingegeben wurden.
DE19873720195 1987-06-16 1987-06-16 Als expertensystem dienender rechner Withdrawn DE3720195A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19873720195 DE3720195A1 (de) 1987-06-16 1987-06-16 Als expertensystem dienender rechner

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19873720195 DE3720195A1 (de) 1987-06-16 1987-06-16 Als expertensystem dienender rechner

Publications (1)

Publication Number Publication Date
DE3720195A1 true DE3720195A1 (de) 1989-01-05

Family

ID=6329851

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19873720195 Withdrawn DE3720195A1 (de) 1987-06-16 1987-06-16 Als expertensystem dienender rechner

Country Status (1)

Country Link
DE (1) DE3720195A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991006908A1 (en) * 1989-10-30 1991-05-16 Universidade De São Paulo - Usp Circuitry and microprogramming of a non-von neumann computer for acquisition of an automatic programming (software)
DE4108310A1 (de) * 1990-03-14 1991-09-26 Hitachi Ltd Wissensbank-verarbeitungssystem und expertensystem
EP2674880A1 (de) * 2012-06-12 2013-12-18 The Boeing Company Erzeugung eins optimalen Vergleichskriteriums in assoziativen Speichern

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2903413A1 (de) * 1979-01-30 1980-08-07 Paul Stefan Dr Puetter Elektrische schaltung mit lernfaehigkeit
GB2098772A (en) * 1981-05-07 1982-11-24 Fish Alan Newton Improvements in learning machines and components thereof
DE3600762A1 (de) * 1985-02-07 1986-08-07 N.V. Philips' Gloeilampenfabrieken, Eindhoven Anpassungsfaehig ansprechendes system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2903413A1 (de) * 1979-01-30 1980-08-07 Paul Stefan Dr Puetter Elektrische schaltung mit lernfaehigkeit
GB2098772A (en) * 1981-05-07 1982-11-24 Fish Alan Newton Improvements in learning machines and components thereof
DE3600762A1 (de) * 1985-02-07 1986-08-07 N.V. Philips' Gloeilampenfabrieken, Eindhoven Anpassungsfaehig ansprechendes system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DE-Z.: HOLTZ, Klaus, LANGHELD, Erwin: Der selbstlernende und programmierfreie Assoziationscomputer. In: ELEKTRONIK 1978, Heft 14, S. 39-46, (1. Teil), Heft 15, S. 53-62 (2. Teil) *
DE-Z.: WOLF, Gerhard: Assoziativspeicher- Prinzipien und Möglichkeiten der Realisierung. In: data report 11 (1976) Heft 2, S. 29-34 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991006908A1 (en) * 1989-10-30 1991-05-16 Universidade De São Paulo - Usp Circuitry and microprogramming of a non-von neumann computer for acquisition of an automatic programming (software)
DE4108310A1 (de) * 1990-03-14 1991-09-26 Hitachi Ltd Wissensbank-verarbeitungssystem und expertensystem
US5493729A (en) * 1990-03-14 1996-02-20 Hitachi, Ltd. Knowledge data base processing system and expert system
DE4108310C2 (de) * 1990-03-14 1998-10-22 Hitachi Ltd Verarbeitungssystem für eine Wissensbank in einem Expertensystem
EP2674880A1 (de) * 2012-06-12 2013-12-18 The Boeing Company Erzeugung eins optimalen Vergleichskriteriums in assoziativen Speichern
US8914604B2 (en) 2012-06-12 2014-12-16 The Boeing Company Creating optimal comparison criterion within associative memories

Similar Documents

Publication Publication Date Title
Levine A cognitive theory of learning: Research on hypothesis testing
Sperry Mind, brain, and humanist values
EP2108139B1 (de) Verfahren zur rechnergestützten regelung und/oder steuerung eines technischen systems, insbesondere einer gasturbine
DE102008020379A1 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
EP1183619A2 (de) Situationsabhängig operierendes semantisches netz n-ter ordnung
DE60125536T2 (de) Anordnung zur generierung von elementensequenzen
WO2005055134A2 (de) Inferenzmaschine
DE3720195A1 (de) Als expertensystem dienender rechner
DE10139682B4 (de) Verfahren zum Generieren von neuronalen Netzen
WO2022106645A1 (de) Verfahren und system zum verarbeiten von eingabewerten
Young et al. Theories of learning
DE3609925C2 (de)
Niels Attributionen in der Mensch-Computer-Interaktion
WO2006005669A2 (de) System zur informationsextraktion und/oder informationsbewertung
WO2006005665A2 (de) Verfahren zur reaktion auf kontextänderungen mit einem neuronalen netz und neuronales netz zur reaktion auf kontextänderungen
Boden An evaluation of computational modeling in cognitive science.
DE1234062B (de) Lernfaehige Anordnung
WO2020178248A1 (de) Autonomes selbstlernendes system
EP3931761A1 (de) Autonomes selbstlernendes system
DE102021211115A1 (de) Verfahren, Vorrichtung und System zur Interaktion mit Dritten
DE102024002685A1 (de) Verfahren zur Konfiguration einer KI-Funktion in einem Fahrzeug
EP3710992A1 (de) Künstliches neuronales netz und verfahren hierzu
DD217341A1 (de) Kognitiver generalisator fuer assoziative erfahrungsspeicher und konditionierbare zuordner zum ausbilden hypothetischer verknuepfungen
Maki et al. A Connectionist 10 A
DE102004045479A1 (de) Verfahren zur flexiblen Repräsentation einer Sequenz mit einem neuronalen Netz und neuronales Netz

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8130 Withdrawal