Standardfehler

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Dieser Artikel befasst sich mit dem statistischen Standardfehler. Für den empirischen Stichprobenfehler siehe Empirische Varianz.

Der Standardfehler oder Stichprobenfehler ist ein Streuungsmaß für eine Schätzfunktion \hat{\theta} für einen unbekannten Parameter \vartheta der Grundgesamtheit. Der Standardfehler ist definiert als die Standardabweichung der Schätzfunktion \sigma(\hat{\theta})=\sqrt{\operatorname{Var}(\hat{\theta})}, das heißt als die Wurzel aus der Varianz.

Bei einem erwartungstreuen Schätzer ist daher der Standardfehler ein Maß für die durchschnittliche Abweichung des geschätzten Parameterwertes vom wahren Parameterwert. Je kleiner der Standardfehler ist, desto genauer kann der unbekannte Parameter mit Hilfe der Schätzfunktion geschätzt werden. Der Standardfehler hängt unter anderem ab von

  • dem Stichprobenumfang und
  • der Varianz \sigma^2 in der Grundgesamtheit.

Allgemein gilt: Je größer der Stichprobenumfang, desto kleiner der Standardfehler; je kleiner die Varianz, desto kleiner der Standardfehler.

Eine wichtige Rolle spielt der Standardfehler auch bei der Berechnung von Schätzfehlern, Konfidenzintervallen und Teststatistiken.

Interpretation[Bearbeiten]

Der Standardfehler liefert eine Aussage über die Güte des geschätzten Parameters. Je mehr Einzelwerte es gibt, desto kleiner ist der Standardfehler, und umso genauer kann der unbekannte Parameter geschätzt werden. Der Standardfehler macht die gemessene Streuung (Standardabweichung) zweier Datensätze mit unterschiedlichen Stichprobenumfängen vergleichbar, indem er die Standardabweichung auf den Stichprobenumfang normiert.

Wird mit Hilfe von mehreren Stichproben der unbekannte Parameter geschätzt, so werden die Ergebnisse von Stichprobe zu Stichprobe variieren. Natürlich stammt diese Variation nicht von einer Variation des unbekannten Parameters (denn der ist fix), sondern von Zufallseinflüssen, z. B. Messungenauigkeiten. Der Standardfehler ist die Standardabweichung der geschätzten Parameter in vielen Stichproben. Im Allgemeinen gilt: Für eine Halbierung des Standardfehlers ist eine Vervierfachung des Stichprobenumfangs nötig.

Im Gegensatz dazu bildet die Standardabweichung die in einer Population (= Grundgesamtheit) tatsächlich vorhandene Streuung ab, die auch bei höchster Messgenauigkeit und unendlich vielen Einzelmessungen vorhanden ist (z. B. bei Gewichtsverteilung, Größenverteilung, Monatseinkommen). Sie zeigt, ob die Einzelwerte nahe beieinander liegen oder eine starke Spreizung der Daten vorliegt.

Beispiel[Bearbeiten]

Angenommen, man untersucht die Population von Kindern, die Gymnasien besuchen, hinsichtlich ihrer Intelligenzleistung. Der unbekannte Parameter ist also die mittlere Intelligenzleistung der Kinder, die ein Gymnasium besuchen. Wenn nun zufällig aus dieser Population eine Stichprobe des Umfanges n (also mit n Kindern) gezogen wird, dann kann man aus allen n Messergebnissen den Mittelwert berechnen. Wenn nun nach dieser Stichprobe noch eine weitere, zufällig gezogene Stichprobe mit der gleichen Anzahl von n Kinder gezogen und deren Mittelwert ermittelt wird, so werden die beiden Mittelwerte nicht exakt übereinstimmen. Zieht man noch eine Vielzahl weiterer zufälliger Stichproben des Umfanges n, dann kann die Streuung aller empirisch ermittelten Mittelwerte um den Populationsmittelwert ermittelt werden. Diese Streuung ist der Standardfehler. Da der Mittelwert der Stichprobenmittelwerte der beste Schätzer für den Populationsmittelwert ist, entspricht der Standardfehler der Streuung der empirischen Mittelwerte um den Populationsmittelwert. Er bildet nicht die Intelligenzstreuung der Kinder, sondern die Genauigkeit des errechneten Mittelwerts ab.

Notation[Bearbeiten]

Für den Standardfehler benutzt man verschiedene Bezeichnungen um ihn von der Standardabweichung \sigma der Grundgesamtheit zu unterscheiden und um zu verdeutlichen, dass es sich um die Streuung des geschätzten Parameters von Stichproben handelt:

  • \sigma_n,
  • \sigma(\hat{\theta}) oder
  • \sigma_{\hat{\theta}}.

Schätzung[Bearbeiten]

Da in den Standardfehler die Standardabweichung \sigma der Grundgesamtheit eingeht, muss für eine Schätzung des Standardfehlers die Standardabweichung in der Grundgesamtheit mit einem möglichst erwartungstreuen Schätzer derselben geschätzt werden.

Konfidenzintervalle und Tests[Bearbeiten]

Der Standardfehler spielt auch eine wichtige Rolle bei Konfidenzintervallen und Tests. Wenn die Schätzfunktion \hat{\theta} erwartungstreu und zumindest approximativ normalverteilt (N(\vartheta, \sigma^2(\hat{\theta}))) ist, dann ist

 \frac{\hat{\theta}-\vartheta}{\sigma(\hat{\theta})} \approx N(0; 1).

Auf dieser Basis lassen sich 1-\alpha-Konfidenzintervalle für den Parameter \theta angeben:

P(\hat{\theta}-z_{1-\alpha/2}\sigma(\hat{\theta}) \leq \vartheta \leq \hat{\theta}+z_{1-\alpha/2}\sigma(\hat{\theta})) = 1-\alpha

bzw. Tests formulieren, z.B. ob der Parameter einen hypothetischen Wert \vartheta_0 annimmt:

H_0: \vartheta=\vartheta_0 vs. H_1: \vartheta \neq \vartheta_0

und die Teststatistik ergibt sich zu:

V=\frac{\hat{\theta}-\vartheta_0}{\sigma(\hat{\vartheta})} \approx N(0; 1).

z_{1-\alpha/2} ist das 1-\alpha/2-Quantil der Standardnormalverteilung und sind auch der kritische Wert für den formulierten Test. In der Regel muss \sigma(\hat{\vartheta}) aus der Stichprobe geschätzt werden, so dass

V=\frac{\hat{\theta}-\vartheta_0}{\hat{\sigma}(\hat{\vartheta})} \approx t_{n-1}

gilt, wobei n die Anzahl der Beobachtungen ist. Für n>30 kann die t-Verteilung durch die Standardnormalverteilung approximiert werden.

Standardfehler des arithmetischen Mittels[Bearbeiten]

Der Standardfehler des arithmetischen Mittels ist gleich

\sigma(\overline{X}) = \frac{\sigma}{\sqrt{n}},

wobei \sigma die Standardabweichung einer einzelnen Messung bezeichnet.

Herleitung[Bearbeiten]

Der Mittelwert einer Stichprobe vom Umfang n ist definiert durch

\overline x = \frac1n\sum_{i=1}^nx_i.

Betrachtet man die Schätzfunktion

\overline{X}=\frac{1}{n}\sum_{i=1}^n X_i

mit unabhängigen, identisch verteilten Zufallsvariablen X_1,\ldots,X_n mit endlicher Varianz \sigma^2, so ist der Standardfehler definiert als die Wurzel aus der Varianz von \overline X. Man berechnet unter Verwendung der Rechenregeln für Varianzen und der Gleichung von Bienaymé:

\sigma(\overline{X})^2 = \operatorname{Var}\left(\overline X\right) = \operatorname{Var}\left(\frac 1n\sum_{i=1}^n X_i\right) = 
\frac 1{n^2}\operatorname{Var}\left(\sum_{i=1}^n X_i\right) =
\frac 1{n^2}\sum_{i=1}^n \operatorname{Var}\left(X_i\right) = 
\frac 1{n^2}n\sigma^2 =\frac{\sigma^2}n

woraus die Formel für den Standardfehler folgt. Falls \operatorname{Var}(X_i)=\sigma_i^2 gilt, so folgt analog

\sigma(\overline{X})^2 = \frac{1}{n^2}\sum_{i=1}^n \sigma_i^2.

Berechnung von \sigma[Bearbeiten]

Unterstellt man eine Stichprobenverteilung, so kann der Standardfehler anhand der Varianz der Stichprobenverteilung berechnet werden:

\sigma_{\bar x,\mathrm{binom}} = \frac{\sqrt{ N \cdot p \cdot (1-p)}}{\sqrt n},
\sigma_{\bar x,\mathrm{exp}} = \frac{1}{\lambda\sqrt n}
\sigma_{\bar x,\mathrm{poisson}} = \sqrt{\frac{\lambda}{n}}

Dabei bezeichnen

  • \sigma_{\bar x,\mathrm{binom}},  \sigma_{\bar x,\mathrm{exp}},  \sigma_{\bar x,\mathrm{poisson}} die Standardfehler der jeweiligen Verteilung, und
  • n den Stichprobenumfang.

Soll der Standardfehler für den Mittelwert geschätzt werden, dann wird die Varianz \sigma^2 mit der korrigierten Stichprobenvarianz geschätzt.

Beispiel[Bearbeiten]

Für die Eiscreme-Daten[1][2] wurde für den Pro-Kopf Verbrauch von Eiscreme (gemessen in Pint) das arithmetische Mittel, dessen Standardfehler und die Standardabweichung für die Jahre 1951, 1952 und 1953 berechnet.

Jahr Mittelwert Standardfehler
des Mittelwerts
Standard-
abweichung
Anzahl der
Beobachtungen
1951 0,34680 0,01891 0,05980 10
1952 0,34954 0,01636 0,05899 13
1953 0,39586 0,03064 0,08106 7

Für die Jahre 1951 und 1952 sind die geschätzten Mittelwerte und Standardabweichungen sowie die Beobachtungszahlen etwa gleich. Deswegen ergeben die geschätzten Standardfehler auch etwa den gleichen Wert. Im Jahr 1953 sind zum einen die Beobachtungszahlen geringer als auch die Standardabweichung größer. Daher ist der Standardfehler fast doppelt so groß wie die Standardfehler aus den Jahren 1951 und 1952.

95 % Schätzintervalle für drei Jahre für das arithmetische Mittel des pro-Kopf Eiscremeverbrauchs.

Die grafische Darstellung kann mittels eines Fehlerbalkendiagramms erfolgen. Rechts werden die 95 % Schätzintervalle für die Jahre 1951, 1952 und 1953 dargestellt. Wenn die Stichprobenfunktion \bar{X} zumindest approximativ normal verteilt ist, dann sind die 95 % Schätzintervalle gegeben durch \bar{x_j}\pm 1,96 * s_j/\sqrt{n_j} mit j=1951, 1952, 1953 und \bar{x}_j die Stichprobenmittelwerte und s_j^2 die Stichprobenvarianzen.

Auch hier sieht man deutlich, dass der Mittelwert 1953 ungenauer geschätzt werden kann als die Mittelwerte von 1951 und 1952 (längerer Balken für 1953).

Standardfehler der Regressionskoeffizienten im einfachen Regressionsmodell[Bearbeiten]

Im klassischen Regressionsmodell für die einfache lineare Regression Y_i = \alpha+\beta x_i + U_i wird vorausgesetzt, dass

  • die Störterme U_i \sim\, N(0, \sigma_U^2) verteilt sind,
  • die Störterme unabhängig sind und
  • die Werte x_i fix sind (also keine Zufallsvariablen),

wobei i=1,\ldots,n die gemachten Beobachtungen durchläuft. Für die Schätzfunktionen

B = \frac{\sum_i (x_i - \bar{x}) (Y_i-\bar{Y})}{\sum_i (x_i-\bar{x})^2} und
A = \bar{Y} - B \bar{x}

ergibt sich dann

B \sim N(\beta, \sigma^2(B))\, und A \sim N(\alpha, \sigma^2(A))\,.

Die Standardfehler ergeben sich zu

\sigma(B) = \sigma_U \sqrt{\frac{1}{\sum_i (x_i - \bar{x})^2}}

und

\sigma(A) = \sigma_U \sqrt{\frac{\sum_i x_i^2}{n\sum_i (x_i - \bar{x})^2}}.

Beispiel: Für die Eiscreme-Daten[1][2] wurde für den Pro-Kopf Verbrauch von Eiscreme (gemessen in halbe Liter) eine einfache lineare Regression mit der mittleren Wochentemperatur (in Fahrenheit) als unabhängige Variable durchgeführt. Die Schätzung des Regressionsmodells ergab:

\text{Pro-Kopf-Verbrauch} = 0,20686 + 0,00311 * \text{Temperatur}.
Modell Nicht standardisierte Koeffizient Standardisierte
Koeffizienten
T Sig.
Regressionskoeffizienten Standardfehler
Konstante 0,20686 0,02470 8,375 0,000
Temperatur 0,00311 0,00048 0,776 6,502 0,000

Zwar ist der geschätzte Regressionkoeffizient für die mittlere Wochentemperatur sehr klein, jedoch ergab der geschätzte Standardfehler einen noch kleineren Wert. Die Genauigkeit, mit der der Regressionskoeffizient geschätzt wird, ist gut 6,5 mal so klein wie der Koeffizient selbst.

Einzelnachweise[Bearbeiten]

  1. a b Koteswara Rao Kadiyala (1970) Testing for the independence of regression disturbances. Econometrica, 38, 97-117.
  2. a b Eiscreme Daten Data and Story Library, abgerufen am 16. Februar 2010