Diskussion:Boosting

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 1 Jahr von Biggerj1 in Abschnitt Fokus auf Klassifikation in zwei Klassen
Zur Navigation springen Zur Suche springen

exponentielle Verlustfunktion[Quelltext bearbeiten]

  • " „exponentielle Verlustfunktion“ L ": mathematisch überdiddelt? soweit ich das sehe werden sowieso nur binär Werte (falsch) bzw. (richtig) aufsummiert. Müsste zum exakt selben Lern/Optimierungs-Effekt ohne die e-Funktion führen. einfach minimieren - oder auch "Anzahl der Richtigen"/N ? Die nichtlineare e-Bewertung o.ä würde nur dann (vielleicht) Sinn machen, wenn zumindest einige der Elementar-Klassifikatoren float (z.B. 100% gut stufenlos bis 100% schlecht) anstatt f1, ..., fm: M → {+1, -1} sind. --213.54.215.126 15:31, 15. Sep 2006 (CEST)

Regression =[Quelltext bearbeiten]

  • Was ist mit Boosting für Regression? Das wird im Artikel nicht mal erwähnt dass es das auch gibt! --Rene 13:10, 15. Mär 2009


@Rene: Wegen "Boosting für Regression": Kannst du das belegen? Dann Wikipedia:Sei mutig :-) --Martin Thoma 13:16, 20. Nov. 2015 (CET)Beantworten
Habe es eingefügt, siehe XGBoost
Dieser Abschnitt kann archiviert werden. biggerj1 (Diskussion) 15:45, 14. Dez. 2022 (CET)

schwache Klassifikatoren[Quelltext bearbeiten]

Im Kapitel 'Funktionsweise' wird zunächst der Begriff "schwache Klassifikatoren" eingeführt, einen Absatz weiter im Abschnitt 'Grundlagen' jedoch ist dann von "primitiven Klassifikatoren" die Rede. Sollte der Artikel nicht bei der Nomenklatur bleiben, die er selbst einführt? Falls beide Begriffe geläufig sind (ich selbst bin Anfänger auf dem Gebiet), sollte das bei der Begriffsdefinition oben wahrscheinlich erwähnt werden. --178.199.119.140 19:08, 25. Dez. 2012 (CET)Beantworten

Überanpassung[Quelltext bearbeiten]

  • "„Boosting ist sehr anfällig für Überanpassung„": Das stimmt nicht. Shapire zeigt in [1] das der Generalisierungsfehler unabhaenging von der Anzahl der Boostingrunden ist. Boosting ist nicht anfällig für Überanpassung. Aber anfällig bei verrauschten oder falsch klassifizierten Trainingsdaten. Ckeller 15:38, 22. Mär. 2007 (CET)Beantworten
  • Das hat mich beim Lesen auch direkt stutzig gemacht. Da anscheinend auch andere der Meinung sind, entferne ich den Absatz. Besser keine Info als falsche Info. (Neue Info am besten direkt mit Nachweis.) --Kraymer 21:54, 19. Mai 2011 (CEST)Beantworten
@Kraymer:, @Ckeller: Das hat sich erledigt, oder? --Martin Thoma 13:14, 20. Nov. 2015 (CET)Beantworten

Quellenangabe[Quelltext bearbeiten]

Ist eine anderssprachige Wikipedia wirklich eine zugelassene Quellenangabe? (nicht signierter Beitrag von Gidoca (Diskussion | Beiträge) 14:34, 18. Aug. 2010 (CEST)) Beantworten

@Gidoca: Das scheint nicht mehr der Fall zu sein. Das ist also erledigt, oder?

Fokus auf Klassifikation in zwei Klassen[Quelltext bearbeiten]

Ist Boosting wiklich so auf die Erzeugung von binären Klassifikatoren beschränkt? Ich finde dazu kaum Belege in der Literatur. Beispiel A Short Introduction to Boosting. Der Binäre Fall ist natürlich der einfachste Ausgangspunkt und für eine theoretische Betrachtung gut geeignet aber Boosting ist nicht darauf beschränkt. Der Artikel vermittelt hier einen falschen Eindruck finde ich. Bin aber auch neu in diesem Feld. --TMSigma (Diskussion) 15:29, 14. Jun. 2016 (CEST)Beantworten

Boosting kann auch für Regression verwendet werden, vgl XGBoostRegressor. biggerj1 (Diskussion) 19:53, 12. Dez. 2022 (CET)Beantworten