Bootstrapping (Statistik)

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Bootstrapping ist in der Statistik eine Methode des Resampling. Dabei werden wiederholt Statistiken auf der Grundlage lediglich einer Stichprobe berechnet. Verwendung finden Bootstrap-Methoden, wenn die theoretische Verteilung der interessierenden Statistik nicht bekannt ist. Diese Methode wurde erstmals von Bradley Efron 1979 in Bootstrap Methods: Another Look at the Jackknife beschrieben.

Der Bootstrap ersetzt in der Regel die theoretische Verteilungsfunktion einer Zufallsvariablen durch die empirische Verteilungsfunktion (relative Summenhäufigkeitsfunktion) der Stichprobe .

Vorgehen[Bearbeiten | Quelltext bearbeiten]

Dafür werden im einfachsten Fall B Bootstrap-Stichproben dadurch generiert, dass je Ziehung n mal aus der gegebenen Stichprobe ein Wert mit Zurücklegen gezogen wird. Dies entspricht dem wiederholten Ziehen von Zufallszahlen aus der empirischen Verteilungsfunktion . Für jede Bootstrap-Stichprobe wird der Wert der interessierenden Statistik T berechnet. Die Verteilung von wird schließlich durch die empirische Verteilung der B Werte approximiert.

In weniger intuitiven Modellen wird nicht bloß ein wiederholtes Ziehen aus den bereits vorliegenden Daten durchgeführt. Methodisch lässt sich in Bootstrap-Verfahren auch so vorgehen, dass bestimmte Kenngrößen der unbekannten Verteilung geschätzt werden und anhand dieser Informationen Daten neu generiert werden, indem eine Verteilung mit den geschätzten Größen erzeugt wird.

Weblinks[Bearbeiten | Quelltext bearbeiten]

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Bradley Efron: Bootstrap Methods: Another Look at the Jackknife. In: The Annals of Statistics. 7, Nr. 1, 1979, S. 1–26. doi:10.1214/aos/1176344552.
  • B. Efron, R.J. Tibshirani: An introduction to the bootstrap, New York: Chapman & Hall, 1993
  • J. Shao, D. Tu: The Jackknife and Bootstrap. Springer, 1995.