Teststatistik

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Als Teststatistik (synonyme Begriffe: Testgröße, Prüfgröße, Prüffunktion) bezeichnet man in der mathematischen Statistik eine bestimmte Stichprobenfunktion, die bei einem Hypothesentest dazu verwendet wird, die Testentscheidung – also Ablehnen oder Nichtablehnen der Nullhypothese – zu treffen.

Als Prüfwert wird die Realisation einer Teststatistik anhand einer Stichprobe bezeichnet.

Verwendung bei festem Signifikanzniveau[Bearbeiten]

Vor der Durchführung des Tests, das heißt auch vor der Ziehung der hierzu benötigten Stichprobe, ist die Teststatistik T eine Zufallsvariable, deren Wahrscheinlichkeitsverteilung von jener der Stichprobenvariablen X_1, X_2, \dotsc, X_n abhängt, wobei n der Stichprobenumfang ist. Unter der Annahme, dass die Nullhypothese (H_0) richtig ist, wird für die Verteilung der Teststatistik je nach Testverfahren ein bestimmtes Verteilungsmodell angenommen, dessen Verteilungsparameter sich aus der Nullhypothese ergeben. Anhand dieser angenommenen Verteilung sowie des zuvor festgelegten Signifikanzniveaus wird zugleich der Ablehnbereich bestimmt. Nun wird die Stichprobe gezogen und aus den sich dabei ergebenden Stichprobenwerten der konkrete Wert t der Teststatistik errechnet. Zur Ablehnung der Nullhypothese kommt es genau dann, wenn t in den Ablehnbereich fällt; anderenfalls wird unter dem verwendeten Signifikanzniveau die Nullhypothese beibehalten. Wenn nämlich die Nullhypothese gilt und damit die unterstellte Verteilung der Teststatistik als richtig angenommen werden kann, entspricht die Wahrscheinlichkeit, dass die Testgröße in den Ablehnbereich fällt und somit die Nullhypothese fälschlich abgelehnt wird (sogenannter Fehler 1. Art), genau dem festgelegten Signifikanzniveau. Das Fallen der Testgröße in den Ablehnbereich ist gleichbedeutend mit der (je nach Testproblem) Über- bzw. Unterschreitung eines bestimmten Schwellenwertes, der auch als „Kritischer Wert“ bezeichnet wird.

Verwendung mit p-Wert[Bearbeiten]

Eine alternative, heutzutage in vielen statistischen Softwareanwendungen übliche Vorgehensweise besteht darin, anstatt sich vorher auf eine bestimmte Wahrscheinlichkeit für den Fehler 1. Art festzulegen, die Testentscheidung durch Berechnung des sogenannten p-Wertes zu treffen. In diesem Fall wird die Stichprobe ohne vorherige Festlegung des Signifikanzniveaus gezogen und der Wert t der Teststatistik anschließend berechnet. Je nachdem, in welchen Bereich der für T angenommenen Verteilung er fällt, ergibt sich ein p-Wert, der umso stärker die Ablehnung der Nullhypothese „signalisiert“, je kleiner er ist (aus diesem Grund interpretiert man den p-Wert auch als Maß für die „Signifikanz“ der Nullhypothese). Somit wird bei dieser Vorgehensweise, im Gegensatz zu der oben beschriebenen „klassischen“ Methode, nicht der Wert der Teststatistik selbst zur Testentscheidung herangezogen, sondern der aus ihm ermittelte p-Wert.

Beispiele für Teststatistiken[Bearbeiten]

T=\frac{\bar{X}-\mu_{0}} {S^*} \sqrt{n}

mit \bar{X} = Stichprobenmittelwert, \mu_{0} = laut Nullhypothese angenommener exakter Wert bzw. Obergrenze bzw. Untergrenze für den Erwartungswert \mu, S^* = korrigierte Stichprobenstandardabweichung.
Unter H_0 ist beim t-Test über einen Erwartungswert die Teststatistik t-verteilt mit n-1 Freiheitsgraden.

 \chi ^2= \sum_{j=1}^m \frac{(n_j-n_{jo})^2}{n_{jo}}

mit m = Anzahl der Ausprägungsklassen des betreffenden Merkmals, n_j = empirische (sich aus der Stichprobe ergebende) Häufigkeit des Auftretens des Merkmals in der j-ten Klasse, n_{jo} = theoretische (unter H_0 unterstellte) Häufigkeit des Auftretens des Merkmals in der j-ten Klasse.
Unter H_0 ist bei diesem Test die Testgröße annähernd Chi-Quadrat-verteilt mit m-1 Freiheitsgraden.