„Ensemble learning“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
[ungesichtete Version][ungesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
MHorn21 (Diskussion | Beiträge)
Keine Bearbeitungszusammenfassung
MHorn21 (Diskussion | Beiträge)
Bagging ausformuliert, Quellen eingefügt
Zeile 9: Zeile 9:
Es kann sogar gezeigt werden, dass kein anderes Ensemble diese Methode im Durchschnitt übertreffen kann. Leider lässt sich dieses Verfahren nicht praktisch einsetzen, da <math>argmax</math> über alle Hypothesen im Hypothesenraum iteriert und dieser Raum in den allermeisten Fällen viel zu groß zum Abzählen ist.
Es kann sogar gezeigt werden, dass kein anderes Ensemble diese Methode im Durchschnitt übertreffen kann. Leider lässt sich dieses Verfahren nicht praktisch einsetzen, da <math>argmax</math> über alle Hypothesen im Hypothesenraum iteriert und dieser Raum in den allermeisten Fällen viel zu groß zum Abzählen ist.


=== Bootstrap Aggregation(Bagging)<ref>{{Literatur|Autor=Leo Breiman|Titel=Bagging predictors|Sammelwerk=Machine Learning|Band=24|Nummer=2|Jahr=1996-08-01|Seiten=123–140|ISSN=0885-6125|DOI=10.1007/BF00058655|Online=http://link.springer.com/article/10.1007/BF00058655|Zugriff=2016-03-15}}</ref> ===
=== Bootstrap Aggregation(Bagging) ===
Hautpartikel: [[Bagging]]

Bagging kombiniert mehrere Vorhersagen aus Regressions- oder Klassifikationsmodellen, wobei die einzelnen Vorhersagen gleich gewichtet und am Ende der Durchschnitt der Vorhersagen bestimmt wird.

=== Boosting ===
=== Boosting ===
=== Stacking ===
=== Stacking ===

== Referenzen ==

Version vom 15. März 2016, 22:44 Uhr

Ensemble Methoden werden in der Statistik und für Machine Learning eingesetzt[1]. Sie nutzen eine endliche Menge von verschiedenen Lernalgorithmen, um bessere Ergebnisse zu erhalten wie mit einem einzelnen Lernalgorithmus. Die Berechnung der Ergebnisse dieser Menge von Algorithmen dauert zwar länger wie die Auswertung eines einzelnen Algorithmus, allerdings kann bereits mit einer viel geringeren Rechentiefe ein etwa gleich gutes Ergebnis erreicht werden. Zudem verbessert mehr Rechenzeit das Ergebnis nicht immer, gerade Entscheidungsbäume neigen zu Überanpassung, wenn sie zu weit entwickelt werden.

Arten von Ensembles

Bayes Optimal Classifier

Der Bayes Optimal Classifier liefert stets das beste Ergebnis folgender Formel:

Es kann sogar gezeigt werden, dass kein anderes Ensemble diese Methode im Durchschnitt übertreffen kann. Leider lässt sich dieses Verfahren nicht praktisch einsetzen, da über alle Hypothesen im Hypothesenraum iteriert und dieser Raum in den allermeisten Fällen viel zu groß zum Abzählen ist.

Bootstrap Aggregation(Bagging)[2]

Hautpartikel: Bagging

Bagging kombiniert mehrere Vorhersagen aus Regressions- oder Klassifikationsmodellen, wobei die einzelnen Vorhersagen gleich gewichtet und am Ende der Durchschnitt der Vorhersagen bestimmt wird.

Boosting

Stacking

Referenzen

  1. Murphy: Machine Learning: A Probabilistic Perspective. Hrsg.: MIT Press. 2012.
  2. Leo Breiman: Bagging predictors. In: Machine Learning. Band 24, Nr. 2, 1. August 1996, ISSN 0885-6125, S. 123–140, doi:10.1007/BF00058655 (springer.com [abgerufen am 15. März 2016]).