Diskussion:EM-Algorithmus

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Inzwischen wurde entschieden, dass der Artikel nicht gelöscht werden soll. Daher habe ich den folgenden Text hier in die Diskussion verschoben.

Löschantragstext

Kategorie:Wikipedia:Löschkandidat Die Diskussion über diesen Antrag findet auf der Löschkandidatenseite statt.
Hier der konkrete Grund, warum dieser Artikel nicht den Qualitätsanforderungen entsprechen soll:

Begründung:Ich möchte mir angesichts der Qualität des Gebotenen jeden weiteren Kommentar hier Verkneifen. Wikiquette und Wikiliebe verbieten mir meiner Meinung zu diesem "Artikel" Ausdruck zu verleihen... --((ó)) Käffchen?!? 14:01, 13. Sep 2005 (CEST)


Anwendungsgebiete[Quelltext bearbeiten]

Der EM-Algorithmus ist ein recht generelles Prinzip, das in zahlreichen Lern-Aufgaben Anwendung findet. Hier ein paar Beispiele aus dem Textbuch "Artifical Intelligence: A Modern Approach, Stuart Russel & Peter Norvig":

  • "Unsupervised clustering: Learning mixtures of gaussians"
  • "Learning Bayesian networks with hidden variables"
  • "Learning hidden Markov models"

Auch den k-Means-Algorithmus kann man als EM-Instanz formalisieren (expect = jeden Datenpunkt dem nächstgelegenen Clusterzentrum zuordnen, maximize = clusterzentren neu berechnen).

Der Artikel sollte hier trennen zwischen:

  • Grundidee der iterativen Modellverfeinerung
  • Mathematische/Statistische Grundlagen
  • Anwendungsbeispiele
    • EM-Clustering
    • k-means-Clustering
    • Bayesisische Netze mit versteckten Variablen lernen
    • Hidden Markov Modelle lernen

--Chire 10:52, 16. Jan. 2011 (CET)[Beantworten]

Ich denke der Beweis sollte eher in den mathematischen Teil des Artikels eingebunden werden. Die Anwendungsbespiele (Instanzen) sollten als solche unter einer gemeinsamen Überschrift zusammengefasst werden. --Black ivory 86 10:44, 4. Mai 2011 (CEST)[Beantworten]


Eine weitere Anwendung ist in der Pattern Recognition gegeben, wenn eine EM genutzt wird um p(x|k) zu bestimmen, wenn man davon ausgeht, dass likelihood durch eine Mischverteilung zustande kommt. -- 92.228.224.198 18:04, 17. Mär. 2012 (CET)[Beantworten]


Unter Funktionsweise steht "um ein möglichst optimales Endergebnis zu finden" Entweder das Ergebnis ist optimal oder eben nicht. Aber eine Steigerungsform von "optimal" ergibt keinen Sinn, da das Wort den höchsten Grad des "Gutseins" bezeichnet. Castalgo (Diskussion) 18:22, 10. Sep. 2018 (CEST)[Beantworten]

Beweis in furchtbarem Zustand und inkorrekt.[Quelltext bearbeiten]

Der Abschnitt "Beweis des Maximierungs-Schritts..." ist inkorrekt und hat einige unverständliche bzw. schlichtweg falsche Stellen. Im letzten Schritt wird der Faktor E[wij] für den Summanden "-µk" in der Klammer einfach unterschlagen, weswegen letztendlich fälschlicherweise als Nenner m statt der Summe über alle E[wij] rauskommt, so wie es sich in ALLEN anderen Quellen, inkl. dem englischen Wiki-Artikel finden lässt. Den Beweis zu korrigieren ohne den Rest zu verändern dürfte allerdings wenig nutzen. Der Artikel ist generell in einem absolut unwürdigen Zustand und sollte gelöscht oder durch eine Übersetzung des englischen ersetzt werden.