Adaptives Neuro-Fuzzy-Inferenzsystem

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Als Adaptives Neuro-Fuzzy-Inferenzsystem (ANFIS) wird in der Neuroinformatik ein künstliches neuronales Netz bezeichnet, welches zur Darstellung verschiedener Fuzzy-Inferenzmechanismen – also Mechanismen zum logischen Schließen aus unscharfen Mengen – dient. Übliche Mechanismen sind dabei Takagi-Sugeno-Regler und Tsukamoto-Regler. Der Name eines ANFIS-Netzes leitet sich vom höchsten Polynomgrad im DANN-Teil des Regelalgorithmus ab (z. B. ANFIS ersten Grades).

ANFIS-basierte Systeme verbinden die Prinzipien neuronaler Netze mit denen der Fuzzylogik und vereinen so die Vorteile beider Systeme:

  • Verarbeitung unter Einbeziehung linguistischer (natursprachlicher) Aspekte der Information
  • Entscheidungen basierend auf dem Grad der Unsicherheit
  • Lernfähigkeit

Architektur[Bearbeiten]

Im Allgemeinen kann ein ANFIS in fünf Stufen unterteilt werden. Wenn bekannt ist, dass der Sugeno-Takagi-Regler n Eingangsgrößen (x1, ... , xn) und m Regeln hat, haben diese Stufen die folgende Aufgaben:

  1. Am Eingang des Netzes werden die Eingangsgrößen festgelegt, und jede der Prämissen Pij wird berechnet. Hierbei bleibt i im Bereich {1, ... , m} und j im {1, ... , n}. Dabei gehört Pij zu Regel i und bekommt Eingangsgröße j. Es ist wichtig zu bemerken, dass nicht alle Pij existieren müssen. Das hängt von der Form der Regeln ab.
  2. Diese Prämissen werden durch Fuzzy-Operatoren verknüpft, so dass die Endprämissen der ganze WENN-Teile ermittelt werden sein. Zum Beispiel, wenn der erste WENN-Teil „P11(x1) UND P12(x2)“ heißt, wird das Ergebnis dieses ganzen Ausdrucks eine Endprämisse sein. Diese Endprämissen werden man w1, w2, ... , wm genannt.
  3. Wenn alle Endprämissen ermittelt sind, können sie normalisiert werden, indem jede Endprämisse durch die Summe aller Prämissen dividiert wird. \textstyle \overline{w_i} = w_i / \sum_{\forall i}{w_i}. So erhält man die neuen Werte \overline{w_i}.
  4. Um die Sugeno-Takagi-Inferenz zu realisieren, muss man die normalisierte Endprämissen \overline{w_i} mit entsprechenden Polynomfunktionen f1, ... , fm multiplizieren. Diese Polynomfunktionen bekommen wieder die Eingangsparameter. Im Ganzen erhält man als Ergebnis jeder Regel ein Produkt \overline{w_i}f_i(x_0, ... , x_m).
  5. Schließlich werden die zuletzt ermittelten Werte \overline{w_i}f_i(x_0, ... , x_m) summiert und ausgegeben.

Beispiel[Bearbeiten]

Nun wird ein einfacher Sugeno-Takagi-Regler mit zwei Eingangsgrößen und zwei Regeln beobachtet:

WENN P11(x1) UND P12(x2) DANN f1(x1, x2)
WENN P21(x1) UND P22(x2) DANN f2(x1, x2)

Das ANFIS, das diesen Regler implementiert, wird so aussehen:

Skizze des oberen Systems

Lernen[Bearbeiten]

Einer der bekannten Lernalgorithmen für ein ANFIS ist der sogenannte Hybridalgorithmus, der z. B. während der Vorwärtsphase der Backpropagation die Prämissenparameter als konstant annehmen und konsequente Parameter mit der Methode der kleinsten Quadrate optimieren kann, während in der Rückwärtsphase die konsequenten Parameter als konstant betrachtet und die Prämissenparameter mittels Gradientenverfahren optimiert werden.

Literatur[Bearbeiten]