Bidirektionaler Assoziativspeicher

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Bidirektionaler Assoziativspeicher, englisch bidirectional associative memory (kurz: BAM), ist eine Klasse künstlicher neuronaler Netze und kann als verallgemeinertes Hopfield-Netz betrachtet werden. BAM gehört zu der Gruppe der rückgekoppelten neuronalen Netze.

Struktur[Bearbeiten | Quelltext bearbeiten]

Ein BAM-Netz besteht aus einer Eingabeschicht von n und einer Ausgabeschicht von m künstlichen Neuronen, beide Schichten sind in beide Richtungen miteinander verbunden, wobei die Gewichte symmetrisch sind. Das führt zu einer m x n Matrix für die Gewichte, die von nach gerichtet sind. Die Gewichte von nach entsprechen der transponierten Matrix .

Trainingsphase[Bearbeiten | Quelltext bearbeiten]

In der Trainingsphase lernt das Netz einen n-dimensionalen Vektor x mit einem m-dimensionalen Vektor y zu verknüpfen. Dazu werden beide Vektoren an der Eingabeschicht und Ausgabeschicht angelegt und die Gewichtsmatrix kann in einem Lernschritt berechnet werden. Dazu gilt:

k={1,...,l} für l Vektorpaare

Zum Schluss werden alle Gewichtsmatrizen zur resultierenden Gewichtsmatrix addiert.

Muster Wiederherstellen[Bearbeiten | Quelltext bearbeiten]

Bei einem Recall wird ein verrauschter Eingangsvektor an angelegt und man lässt das Netz einfach rechnen, d.h. Neuronen der Ausgangsschicht berechnen ihren neuen Zustand über und geben diesen über wieder an weiter. Dann beginnt der Prozess von vorn, solange bis die stetig sinkende Energie des Netzes ein lokales Minimum erreicht hat. Nun kann der assoziierte Ausgabevektor entnommen werden.


und

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Gerhard Schöneburg, Nikolaus Hansen, Andreas Gawelczyk, Neuronale Netze, Markt&Technik Verlag Haar(1990), ISBN 3-89090-329-0.
  • Andreas Zell, Simulation neuronaler Netze, R. Oldenbourg Verlag München(1997), ISBN 3-486-24350-0.