Resilient Propagation

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Resilient Backpropagation (Rprop) bzw. elastische Fortpflanzung ist ein iteratives Verfahren zur Bestimmung des Minimums der Fehlerfunktion in einem neuronalen Netz. Der Algorithmus wird manchmal der Gruppe Lernverfahren zweiter Ordnung zugerechnet, da in die Bestimmung der aktuellen Gewichtsänderung die letzte Gewichtsänderung mit einbezogen wird. Das Gewicht wird hierbei nur nach dem Vorzeichen des Gradienten geändert. Mit einem gewichtsindividuellen Parameter  \gamma wird die Schrittweite bestimmt. Die Gewichtsänderung wird in zwei Schritten durchgeführt. Erster Schritt: Für jedes Gewicht wird der Änderungsparameter  \gamma für die k-te Iteration wie folgt bestimmt:

 \gamma_{ij}^{(k+1)}=\begin{cases} \min \left( \gamma_{ij}^{(k)}\,\cdot \eta^{+} ,\gamma_{max} \right) &\mbox{falls} \ \nabla_{ij} \, E^{(k)} \,\cdot\, \nabla_{ij} \, E^{(k-1)} > 0 \\ \max \left( \gamma_{ij}^{(k)}\,\cdot \eta^{-} ,\gamma_{min} \right) &\mbox{falls} \ \nabla_{ij} \, E^{(k)} \,\cdot\, \nabla_{ij} \, E^{(k-1)} < 0 \\ \gamma_{ij}^{(k)} &\mbox{sonst} \end{cases}

mit  0 < \eta^{-} < 1 < \eta^{+}

Schrittweite und maximale Schrittweite für einen Vorwärtsschritt bzw. einen Rückwärtsschritt werden mit den Parametern  \eta^{+} ,  \eta^{-} ,  \gamma_{min} ,  \gamma_{max} festgelegt. Gute Werte für die Parameter sind:  \eta^{+}=1{,}2 \ , \ \eta^{-}=0{,}5 \ , \ \gamma_{max}=50 \ , \ \gamma_{min}=10^{-6}

Im zweiten Schritt wird die Änderung der Gewichte der k-ten Iteration bestimmt:

 w_{ij}^{(k+1)} = w_{ij}^{(k)} + \Delta \, w_{ij}^{(k)}

mit

 \Delta \, w_{ij}^{(k)} = - \gamma_{ij}^{(k)} sgn \left( \nabla_{ij} \, E^{(k)} \right)

Dabei ist  w_{ij} das Gewicht des Neurons j für den Eingang i und E die Summe der Fehler.

Der Rprop-Algorithmus konvergiert im Allgemeinen schneller als die Fehlerrückführung (engl. backpropagation), jedoch kann es aufgrund der Unstetigkeitsstelle am Minimum der lokalen Approximation zum Überspringen des Extremums kommen.

Der Rprop-Algorithmus wurde erstmals 1992 von Martin Riedmiller und Heinrich Braun in ihrer Arbeit "Rprop - A Fast Adaptive Learning Algorithm" vorgestellt.

Christian Igel und Michael Hüsken (2003) haben eine leichte Modifikation des Algorithmus vorgeschlagen, die seine Stabilität und Geschwindigkeit erhöht. Durch die von Aristoklis D. Anastasiadis et al. (2005) beschriebenen Veränderungen kann globale Konvergenz des Verfahrens bewiesen werden.

Literatur[Bearbeiten]

  • M. Riedmiller und H. Braun: Rprop - A Fast Adaptive Learning Algorithm. Proceedings of the International Symposium on Computer and Information Science VII, 1992
  • M. Riedmiller und H. Braun: A direct adaptive method for faster backpropagation learning: The Rprop algorithm. Proceedings of the IEEE International Conference on Neural Networks, 586-591, IEEE Press, 1993
  • M. Riedmiller: Advanced supervised learning in multi-layer perceptrons - From backpropagation to adaptive learning algorithms. Computer Standards and Interfaces 16(5), 265-278, 1994
  • C. Igel und M. Hüsken: Empirical Evaluation of the Improved Rprop Learning. Neurocomputing 50, 105-123, 2003
  • A. D. Anastasiadis, G. D. Magoulas und M. N. Vrahatis: New globally convergent training scheme based on the resilient propagation algorithm. Neurocomputing 64, 253-270, 2005

Weblinks[Bearbeiten]