Benutzer:MovGP0/Neuronale Netze/Lernmethoden

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
   MovGP0        Über mich        Hilfen        Artikel        Weblinks        Literatur        Zitate        Notizen        Programmierung        MSCert        Physik      


Lernmethode
Supervised wird vorgegeben und Gewichte angepasst
Reinforcement Bewertung ob Ausgabe richtig oder falsch; ggf. Fehlerwert
Unsupervised Ausgabe wird nicht vorgegeben
Direct Design Gewichte werden manuell vorgegeben
Lernzeitpunkt
Incremental (online, adaptive) Netz wird nach jedem Input angepasst
Batch (block, cumulated modification, epochal, offline) Netz wird erst nach der Präsentation aller Eingaben angepasst
Lernprozesse
Veränderung der Gewichte
Erstellen/Beseitigen einer Verbindung
Erstellen/Beseitigen eines Neurons
Änderung der Propagierungsfunktion
Änderung der Aktivierungsfunktion
Modifikation des Schwellwerts eines Neurons
  • Ausgaben zu Lerndatensatz
  • Ausgaben zu Testdatensatz (ca. 10% von Lerndaten)

Übersicht über Lernmethoden

[Bearbeiten | Quelltext bearbeiten]
Hebb-Regel Delta-Regel Backpropagation Competive Learning
Lernverfahren Gleichzeitige Aktivierung • Vergleich ist/soll
• Gradientenverfahren
• Backward-Pass
• Gradientenverfahren
the winner takes it all
Lernart supervised, unsupervised, oder reinforcement learning supervised supervised unsupervised
Verwendung Pattern Associator
Auto Associator
• einfache Recurrent Networks
• Jordan Netze
• kompetive Netze
• konzeptuell in Kohonnetzen (Auto-Klassifizierer)
Vorteile • Einfach
• biologisch plausibel
• Einfach
• einfache Implementierung
• mit Hidden-Units einsetzbar
• höhere Mächtigkeit als Delta-Regel
• Unsupervised learnig
• biologisch plausibel
Nachteile • überlaufen von Werten
• überlaufen von Gewichten
• geringe Mächtigkeit
• nicht mit Hidden-Units einsetzbar
• fragwürdige biologische Plausibilität
• geringe Mächtigkeit
• fragwürdige biologische Plausibilität
• lokale Minima
• einzelne Units können alle Inputmuster übernehmen ⇒ keine Kategorisierung

„what fires together wires together“

(auch: Least Mean Square Regel, Widrow-Hoff-Regel)

Stellt sicher, dass die Lernveränderung proportional zum tatsächlichen Fehler ist.

  • nicht für Netze mit Hidden Layer geeignet, da es sich um einen supervised Lernalgorithmus handelt
  • Alternative: Backpropagation
  • Wahl eines zufälligen Startpunktes
  • Festsetzung eines Lernparameters
  • Festlegung des Abbruchkriteriums
    • Fixierung der maximalen Differenzveränderung
    • Fixierung der maximalen Anzahl an Iterationen
  • Schleife
    • Berechnung des Gradienten
    • Veränderung der Gewichte
  1. Forward-Propagation mit Delta-Regel
  2. Fehlerbestimmung
  3. Fehler wird mit Delta-Regel zurückgegeben
Output Units
Input Units und Hidden Units

Hierbei ist

die Ableitung der Aktivierungsfunktion
der Layer nach dem Layer

Competive Learning

[Bearbeiten | Quelltext bearbeiten]
  • im Gegensatz zu Backpropagation unsupervised und biologisch plausibel
  • Problem: einzelne Inputs könnten alle Patterns repräsentieren; die maximale Stärke der Units muss begrenzt werden.
Verfahren
  1. Erregung/Output berechnen
  2. Wettbewerb
    • Entweder: Unit mit dem stärksten Input gewinnt
    • Oder: Unit mit stärkstem Input hemmt benachbarte Units
  3. Gewichstadjustierung
    die Gewichte der Gewinner werden so modifiziert, dass sie eher dem Input gleichen: