Rekurrentes neuronales Netz

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Als rekurrente bzw. rückgekoppelte neuronale Netze bezeichnet man neuronale Netze, die sich, im Gegensatz zu den sogenannten Feedforward-Netzen durch Verbindungen von Neuronen einer Schicht zu Neuronen derselben oder einer vorangegangenen Schicht auszeichnen. Im Gehirn ist dies die bevorzugte Verschaltungsweise neuronaler Netze, insbesondere im Neocortex. In künstlichen neuronalen Netzen werden rekurrente Verschaltung von Modellneuronen benutzt, um zeitlich codierte Informationen in den Daten zu entdecken. Beispiele für solche rekurrente neuronale Netze sind das Elman-Netz, das Jordan-Netz, das Hopfield-Netz, sowie das vollständig verschaltete neuronale Netz.

Verschiedene Arten von Rückkopplungen: Die blaue Kante () ist eine direkte, die grüne () eine indirekte und die rote () eine seitliche Rückkopplung.

Rekurrente Netze lassen sich folgendermaßen unterteilen:

  • Bei einer direkten Rückkopplung (engl. direct feedback) wird der eigene Ausgang eines Neurons als weiterer Eingang genutzt.
  • Die indirekte Rückkopplung (engl. indirect feedback) verbindet den Ausgang eines Neurons mit einem Neuron der vorhergehenden Schichten.
  • Die seitliche Rückkoppelung (engl. lateral feedback) verbindet den Ausgang eines Neurons mit einem anderen Neuron derselben Schicht.
  • Bei einer vollständigen Verbindung hat jeder Neuronenausgang eine Verbindung zu jedem anderen Neuron.

Praktische Anwendung finden rekurrente neuronale Netze bei Problemstellungen die das verarbeiten von Sequenzen erfordern. Beispiele dafür sind Handschrifterkennung, Spracherkennung und Maschinenübersetzung. Die hierbei vorherrschende Art der rekurrenten neuronalen Netze sind LSTMs, beziehungsweise ähnliche Varianten die auf einer direkten Rückkopplung basieren.

Lernen von rekurrenten neuronalen Netzen[Bearbeiten | Quelltext bearbeiten]

Rekurrente künstliche neuronale Netze sind schwierig durch Methoden des maschinellen Lernens zu trainieren.[1] Ein populärer Ansatz ist es daher, nicht das Netz, sondern das Auslesen des Netzes zu trainieren. Das rekurrente neuronale Netz wird dabei als sogenanntes Reservoir betrachtet. Im Falle von LSTMs werden die Netze durch Backpropagation-Through-Time (siehe Backpropagation) während des Trainingsvorgangs in ein Feedforward-Netz entsprechend der Sequenzlänge umgewandelt [2]. Damit wird die Komplexität des Lernverhaltens ähnlich zu dem der herkömmlichen Feedforward-Netze.

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Andreas Zell, Simulation neuronaler Netze, R. Oldenbourg Verlag, München, 1997, ISBN 3-486-24350-0

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Reservoir Computing. Reservoir Lab Ghent, 30. Mai 2008, abgerufen am 2. April 2010.
  2. Chris Nicholson, Adam Gibson: A Beginner's Guide to Recurrent Networks and LSTMs - Deeplearning4j: Open-source, distributed deep learning for the JVM. In: deeplearning4j.org. Abgerufen am 16. Juli 2016.