Diskussion:Hopfield-Netz

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 2 Jahren von Hayek2020 in Abschnitt genug Belege
Zur Navigation springen Zur Suche springen
Zum Archiv
Wie wird ein Archiv angelegt?

Datum der Publizierung[Quelltext bearbeiten]

Publizierung der Hopfield-Netze in 1982? Meine Quellen sprechen von 1985. --Chrislb 18:07, 2. Jan 2006 (CET)

Es gab zwei wichtige Paper von Hopfield über das Modell, eines [1] von 1982 und dieses [2] von 1985. Ersteres hat laut google scholar etwa doppelt so viele Zitationen und wird m.E. meist als Referenz genannt (so auch in der engl. Wikipedia). --Tinz 19:16, 2. Jan 2006 (CET)
Danke für die schnelle Antwort. Kam der Durchbruch mit dem zweiten Paper? Das würde "meine" Jahreszahl erklären, da es dort um die Wiederbelebung der Forschung an Neuronalen Netzen ging. --Chrislb 05:11, 3. Jan 2006 (CET)
"Durchbruch" ist wohl der falsche Ausdruck. Ich habe nur den Abstract gelesen, aber es war wohl so, dass wichtige Aspekte wie die durch die Energiefunktion ermöglichte Anwendbarkeit auf Optimierungsprobleme erst im zweiten Paper behandelt wurden. (Dabei fällt mir auf, dass das noch gar nicht im Artikel steht, mache ich demnächst) Kann aber gut sein, dass erst das zweite paper das Modell (und damit auch das erste Paper) wirklich bekannt machte --Tinz 02:40, 4. Jan 2006 (CET)
Die zentrale Arbeit ist von Hopfield 1982 [3] und bereits 1983 hat er zusammen mit Feinstein und Palmer eine Verbesserung (oder besser "nachträgliche Korrektur") des Lernalgorithmus vorgeschlagen:[4] aus Basis von biologischen Untersuchungen zum REM-Sleep von Crick und Mitchison [5] (Genauere Untersuchung des Hopfield/Feinstein/Palmer Unlearn-Algorithmus hier: [6]). Die wichtigste theoretische Untersuchung der Speicherkapazität dieser Netzwerke ist von E.Gardner 1988 [7] (nicht signierter Beitrag von Mamerl (Diskussion | Beiträge) 13:02, 19. Mär. 2021 (CET))Beantworten

Edit ohne Quelle[Quelltext bearbeiten]

Hallo, bei diesem Edit (diff) wurde leider keine Quelle angegeben. Ich habe mal etwas gegooglet und z.b. das hier gefunden: [8] (Seite 31). Ist die Einfügung korrekt? Falls ja, könnte ja z.b. die Quelle (leider nur als Tertiärquelle) angegeben werden. --Saibo (Δ) 00:05, 13. Jun. 2008 (CEST)Beantworten

Struktur[Quelltext bearbeiten]

Bei der Struktur wird angegeben, dass Hopfield-Netze aus McCulloch-Pitts Neuronen bestehen. Die Eingänge dieser Neuronen besitzen jedoch keine Gewichte, was bei Hopfield-Netzen allerdings, zwangsläufig, der Fall ist. -- 85.176.174.85 21:05, 8. Sep. 2009 (CEST)Beantworten

Datentyp der Trainingsdaten[Quelltext bearbeiten]

Muss der Datentyp von M nicht {-1,1} (bzw. {0,1}) statt R sein? Wie können die States sonst mit den Trainingsmustern assoziiert werden?

-- Horst 09:35, 2. Nov. 2010 (CEST)

Speicherkapazität[Quelltext bearbeiten]

Wie ist dieser Satz zu verstehen?

  • Man möchte im Allgemeinen möglichst viele verschiedene Muster in ein Hopfield einspeisen. Jedoch ist die Speicherkapazität nach dem Verhältnis begrenzt.

Aber ist nicht gerade die Anzahl der zu speichernden Muster? Wie viele Muster kann man denn nun speichern? --134.100.17.238 16:12, 5. Sep. 2018 (CEST)Beantworten

Das Verhältnis L/N ist konstant, möchte man mehr Muster einspeichern, muss man die Systemgröße (Anzahl der Neuronen N) vergrößeren. Für die Zahl der stabilen Muster gilt: L=0,138N

genug Belege[Quelltext bearbeiten]

Da ich der Meinung bin das die Beleg bei so einem kurzen Abschnitt ausreicht sind, habe ich die Warnung entfernt. Freue mich über eure Meinung. --Hayek (Diskussion) 18:15, 20. Okt. 2021 (CEST)Beantworten