Resilient Propagation

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Resilient Backpropagation (Rprop) bzw. elastische Fortpflanzung ist ein iteratives Verfahren zur Bestimmung des Minimums der Fehlerfunktion in einem neuronalen Netz. Der Algorithmus wird manchmal der Gruppe Lernverfahren zweiter Ordnung zugerechnet, da in die Bestimmung der aktuellen Gewichtsänderung die letzte Gewichtsänderung mit einbezogen wird. Das Gewicht wird hierbei nur nach dem Vorzeichen des Gradienten geändert. Mit einem gewichtsindividuellen Parameter wird die Schrittweite bestimmt. Die Gewichtsänderung wird in zwei Schritten durchgeführt. Erster Schritt: Für jedes Gewicht wird der Änderungsparameter für die k-te Iteration wie folgt bestimmt:

mit

Schrittweite und maximale Schrittweite für einen Vorwärtsschritt bzw. einen Rückwärtsschritt werden mit den Parametern festgelegt. Gute Werte für die Parameter sind:

Im zweiten Schritt wird die Änderung der Gewichte der k-ten Iteration bestimmt:

mit

Dabei ist das Gewicht des Neurons j für den Eingang i und E die Summe der Fehler.

Der Rprop-Algorithmus konvergiert im Allgemeinen schneller als die Fehlerrückführung (engl. backpropagation), jedoch kann es aufgrund der Unstetigkeitsstelle am Minimum der lokalen Approximation zum Überspringen des Extremums kommen.

Die Veröffentlichung erfolgte 1992 durch Martin Riedmiller und Heinrich Braun in ihrer Arbeit „Rprop - A Fast Adaptive Learning Algorithm“ vorgestellt.

Christian Igel und Michael Hüsken schlugen 2003 eine leichte Modifikation des Algorithmus vor, die eine Stabilität und Geschwindigkeit erhöht. Durch weitere von Aristoklis D. Anastasiadis et al. (2005) beschriebenen Veränderungen kann die globale Konvergenz des Verfahrens bewiesen werden.

Literatur[Bearbeiten | Quelltext bearbeiten]

  • M. Riedmiller und H. Braun: Rprop - A Fast Adaptive Learning Algorithm. Proceedings of the International Symposium on Computer and Information Science VII, 1992
  • M. Riedmiller und H. Braun: A direct adaptive method for faster backpropagation learning: The Rprop algorithm. Proceedings of the IEEE International Conference on Neural Networks, 586–591, IEEE Press, 1993
  • M. Riedmiller: Advanced supervised learning in multi-layer perceptrons - From backpropagation to adaptive learning algorithms. Computer Standards and Interfaces 16(5), 265–278, 1994
  • C. Igel und M. Hüsken: Empirical Evaluation of the Improved Rprop Learning. Neurocomputing 50, 105–123, 2003
  • A. D. Anastasiadis, G. D. Magoulas und M. N. Vrahatis: New globally convergent training scheme based on the resilient propagation algorithm. Neurocomputing 64, 253–270, 2005

Weblinks[Bearbeiten | Quelltext bearbeiten]