F-Test

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Als F-Test wird eine Gruppe von statistischen Tests bezeichnet, bei denen die Teststatistik unter der Nullhypothese einer F-Verteilung folgt. Im Kontext der Regressionsanalyse wird mit dem F-Test eine Kombination von linearen (Gleichungs-)Hypothesen untersucht. Beim Spezialfall der Varianzanalyse ist mit F-Test ein Test gemeint, mithilfe dessen mit einer gewissen Konfidenz entschieden werden kann, ob zwei Stichproben aus unterschiedlichen, normalverteilten Populationen sich hinsichtlich ihrer Varianz wesentlich unterscheiden. Er dient damit unter anderem zur generellen Überprüfung von Unterschieden zwischen zwei statistischen Populationen.

Der Test geht zurück auf einen der bekanntesten Statistiker, Ronald Aylmer Fisher (1890–1962).

F-Test für zwei Stichproben[Bearbeiten]

Der F-Test ist ein Begriff aus der mathematischen Statistik, er bezeichnet eine Gruppe von Hypothesentests mit F-verteilter Teststatistik. Bei der Varianzanalyse ist mit dem F-Test der Test gemeint, der für zwei Stichproben aus unterschiedlichen, normalverteilten Grundgesamtheiten die Unterschiede in den Varianzen prüft.

Der F-Test setzt voraus, dass zwei unterschiedliche normalverteilte Grundgesamtheiten (Gruppen) gegeben sind, mit den Parametern \mu_1 und \sigma_1^2 bzw. \mu_2 und \sigma_2^2. Es wird vermutet, dass die Varianz in der zweiten Grundgesamtheit (Gruppe) größer sein könnte als die in der ersten Grundgesamtheit. Um dies zu prüfen, wird aus jeder Grundgesamtheit eine Zufallsstichprobe gezogen, wobei die Stichprobenumfänge n_1 und n_2 auch unterschiedlich sein dürfen. Die Stichprobenvariablen X_{11},\dots ,X_{1n_1} der ersten Grundgesamtheit und X_{21},\dots ,X_{2n_2} der zweiten Grundgesamtheit müssen dabei unabhängig sowohl innerhalb einer Gruppe als auch untereinander sein.

Für den Test der:

Nullhypothese: H_0\colon\,\sigma_2^2 = \sigma_1^2
gegen die
Alternativhypothese: H_1\colon\,\sigma_2^2 >\sigma_1^2

eignet sich der F-Test, dessen Teststatistik der Quotient der geschätzten Varianzen der beiden Stichproben ist:

F_{\mathrm{Stichprobe}} =\frac{S^2_2}{S^2_1}=\frac{\displaystyle \frac{1}{n_2-1}\sum_{i=1}^{n_2} (X_{2i}-\bar{X}_2)^2}{\displaystyle \frac{1}{n_1-1}\sum_{i=1}^{n_1} (X_{1i}-\bar{X}_1)^2}.

Dabei sind S_1^2, S_2^2 die Stichprobenvarianzen und \bar{X}_1, \bar{X}_2 die Stichprobenmittel innerhalb der beiden Gruppen.

Unter der Gültigkeit der Nullhypothese ist die Teststatistik F_{\mathrm{Stichprobe}} F-verteilt mit n_2-1 Freiheitsgraden im Zähler und n_1-1 im Nenner. Die Nullhypothese wird abgelehnt für zu große Werte der Teststatistik. Man bestimmt dazu den kritischen Wert oder man berechnet den p-Wert des Prüfwerts. Dies geschieht am einfachsten unter Zuhilfenahme einer F-Wert-Tabelle.

Der kritische Wert K ergibt sich aus der Bedingung:

P\left(F(n_2-1,n_1-1)\ge K\right)\le \alpha_0,

mit \alpha_0 dem erwünschten Signifikanzniveau.

Den p-Wert p berechnet man mittels:

p=P\left(F(n_2-1,n_1-1)\ge f_{stichprobe}\right),

mit f_{stichprobe}, dem in der Stichprobe gefundenen Wert der Teststatistik F_{stichprobe}.

Hat man K bestimmt, dann lehnt man H_0 ab, falls f_{stichprobe}\ge K. Hat man den p-Wert p berechnet, lehnt man H_0 ab, falls p\le \alpha_0.

Häufig wird für das Signifikanzniveau \alpha_0 der Wert 5 % gewählt. Es handelt sich dabei aber nur um eine gängige Konvention, siehe auch den Artikel Statistische Signifikanz. Allerdings können aus der erhaltenen Wahrscheinlichkeit  P(F|H_0) keine direkten Rückschlüsse auf die Wahrscheinlichkeit der Gültigkeit der Alternativhypothese gezogen werden. Wenn sich zwei Stichproben schon in ihren Varianzen unterscheiden, dann unterscheiden sie sich allgemein natürlich auch.

Beispiel[Bearbeiten]

Ein Unternehmen will die Herstellung eines seiner Produkte auf ein Verfahren umstellen, das bessere Qualität verspricht. Das neue Verfahren wäre zwar teurer, aber sollte eine kleinere Streuung aufweisen. Als Test werden 100 Produkte, hergestellt mit dem neuen Verfahren B, verglichen mit 120 Produkten, die mit der alten Methode A produziert worden sind. Die Produkte B weisen eine Varianz von 80 auf, und die Produkte A eine Varianz von 95. Getestet wird

\!H_0\colon \sigma_A=\sigma_B

gegen

\!H_1\colon \sigma_A >\sigma_B

Die Teststatistik hat den Prüfwert:

f_{Stichprobe}=\frac{s_A^2}{s_B^2}=\frac{95}{80}= 1{,}1875

Dieser F-Wert stammt unter der Nullhypothese aus einer F_{(119{;}99)}-Verteilung. Der p-Wert des Stichprobenergebnisses ist also:

P(F(119{;}99) \geq 1{,}188) \approx 0{,}189.

Die Nullhypothese kann also nicht abgelehnt werden, und somit wird die Produktion nicht auf das neue Verfahren umgestellt. Dabei bleibt die Frage, ob diese Entscheidung gerechtfertigt ist. Was wäre, wenn das neue Verfahren tatsächlich eine kleinere Varianz bewirkt, aber aufgrund der Stichprobe ist dies unentdeckt geblieben? Aber auch wenn die Nullhypothese abgelehnt worden wäre, also ein signifikanter Unterschied zwischen den Varianzen aufgefunden worden wäre, hätte doch der Unterschied unbedeutend klein sein können. Zuerst stellt sich natürlich die Frage, ob der Test im Stande wäre, den Unterschied zu entdecken. Dazu betrachtet man die Teststärke. Das Signifikanzniveau \alpha_0 ist auch der Minimalwert der Teststärke. Das führt also nicht weiter. In der Praxis aber würde die Produktion natürlich nur dann umgestellt, wenn eine erhebliche Verbesserung zu erwarten wäre, z. B. eine Abnahme der Standardabweichung um 25 %. Wie wahrscheinlich ist es, dass der Test einen solchen Unterschied entdeckt? Das ist genau der Wert der Teststärke für \sigma_B=0{,}75 \sigma_A. Die Berechnung erfordert zuerst die Berechnung des kritischen Werts f_{krit}. Dazu unterstellen wir \alpha_0=5%, und lesen aus einer Tabelle ab:

\! f_{krit}=1{,}378.

Es gilt also:

P(F_{stichprobe}\ge  1{,}378|H_0)=0{,}05.

Der gesuchte Wert der Teststärke ist die Wahrscheinlichkeit, die erwähnte Abnahme der Standardabweichung zu entdecken, also:


P(H_0\ \text{ablehnen}|\sigma_B=\tfrac 34\sigma_A)=

=P(F_{stichprobe}\ge f_{krit}|\sigma_B=\tfrac 34\sigma_A)=

=P\left(\left.\frac{S_A^2}{S_B^2}\ge f_{krit}\right| \frac{\sigma_B}{\sigma_A} =\tfrac 34\right)=

=P\left(\frac{S_A^2/\sigma_A^2}{S_B^2/\sigma_B^2}\ge (\tfrac 34)^2f_{krit}\right)=

=P\left(F(119;99)\ge 0{,}775\right)=0{,}91.

Das bedeutet: Wenn die Varianz um 25 % oder mehr abnimmt, so wird das in mindestens 91 % der Fälle entdeckt.

F-Test für mehrere Stichprobenvergleiche[Bearbeiten]

Der einfaktoriellen Varianzanalyse liegt ebenfalls der F-Test zugrunde. Hier werden die Treatment- und Fehler-Varianzen einander gegenübergestellt.

F-Test des Bestimmtheitsmaßes eines Regressionsansatzes[Bearbeiten]

Hier wird getestet, ob das Bestimmtheitsmaß des Regressionsansatzes Null ist. Wenn diese Hypothese abgelehnt wird, kann man vermuten, dass das gewählte Regressionsmodell einen Erklärungswert für den Regressanden Y besitzt. Beispielsweise wird getestet, ob mehrere Variablen zusammen einen signifikanten Einfluss auf den Regressanden haben. Es kann somit auch der Fall eintreten, dass der t-Test zu den üblichen Signifikanzniveaus keinen signifikanten Einfluss der einzelnen Regressoren festgestellt hat, der F-Test allerdings die Signifikanz des Gesamtmodells feststellt. Die Wahrscheinlichkeit, dass F-Test und t-Test unterschiedliche Ergebnisse liefern, steigt mit der Anzahl der Freiheitsgrade.

Einordnung[Bearbeiten]

Literatur[Bearbeiten]

  • Bortz, J. & Schuster, C. (2010). Statistik für Human- und Sozialwissenschaftler. 7. Auflage. Berlin und Heidelberg: Springer, ISBN 978-3-642-12769-4.
  • Sachs, L. (2004). Angewandte Statistik: Anwendung statistischer Methoden. 11. Auflage. Berlin, Heidelberg und New York: Springer, ISBN 3-540-40555-0.