Vorzeichentest

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Der Vorzeichentest oder Zeichentest[1][2] ist ein nichtparametrischer statistischer Test. Der Vorzeichentest ist ein Binomialtest.[3][4] Mit seiner Hilfe lassen sich Verteilungshypothesen in Ein- und Zweistichprobenproblemen testen. Der Vorzeichentest ist auch dann einsetzbar, wenn nur ordinales Datenniveau vorliegt.[2][5]

Einstichprobenproblem[Bearbeiten]

Test auf Median[Bearbeiten]

Mit Hilfe des Vorzeichentests können Hypothesen über den Median einer Verteilung geprüft werden.[1]

Test auf Symmetrie[Bearbeiten]

Der Vorzeichentest ist auch als Test auf Symmetrie einer Verteilung nutzbar: Ist das wahre arithmetische Mittel der Grundgesamtheit bekannt oder wird ein Schätzer als wahrer Wert angenommen, kann geprüft werden, ob das arithmetische Mittel mit dem Median zusammenfällt, d.h. ob 50 % der möglichen Werte rechts und 50 % links vom arithmetischen Mittel liegen, und somit, ob die Verteilung symmetrisch ist.[6]

Test auf Mittelwert[Bearbeiten]

Nimmt man wiederum Symmetrie der Verteilung an, dann ist der Populationsmittelwert gleich dem Populationsmedian, und der Vorzeichentest bietet die Möglichkeit, Hypothesen über das arithmetische Mittel der Grundgesamtheit zu prüfen.[7]

Annahmen[Bearbeiten]

  • Die Beobachtungen x_i, i=1,\ldots,n sind unabhängig voneinander.[1][2]
  • Die zugrundeliegende Zufallsvariable ist in der Grundgesamtheit stetig verteilt.[1][2]
  • Da Größenvergleiche zwischen Beobachtungen und hypothetischem Median durchgeführt werden, muss das untersuchte Merkmal mindestens auf ordinalem Niveau erhoben worden sein.[2][5][8]

Hypothesen[Bearbeiten]

Wird zweiseitig getestet, soll die Hypothese geprüft werden, dass der Median \theta in der Grundgesamtheit gleich einem bestimmten hypothetischen Wert \theta_0 ist. Die Wahrscheinlichkeit, dass ein Wert größer dem hypothetischen Parameter ist, sollte dann 0,5 betragen, wenn er tatsächlich dem Median entspricht. Wird einseitig getestet, wird geprüft, ob der Median größer bzw. kleiner einem hypothetischen Wert ist, d.h. ob die Wahrscheinlichkeit, dass ein Wert größer dem hypothetischen Parameter ist, größer bzw. kleiner 0,5 ist.

Einseitig Zweiseitig
Nullhypothese \, H_0 \, P(X \geq \theta_0) \geq 1/2 \, P(X \geq \theta_0) \leq 1/2 \, P(X \geq \theta_0) = 1/2
Alternativhypothese \, H_1 \, P(X \geq \theta_0) < 1/2 \, P(X \geq \theta_0) > 1/2 \, P(X \geq \theta_0) \neq 1/2
Nullhypothese \, H_0 \, \theta \geq \theta_0 \, \theta \leq \theta_0 \, \theta = \theta_0
Alternativhypothese \, H_1 \, \theta < \theta_0 \, \theta > \theta_0 \, \theta \neq \theta_0

Weitere äquivalente Formulierungen der Hypothesen sind möglich. Das Testprinzip ist unter Anpassung der Hypothesen und der Parameter der Verteilung der Teststatistik auf beliebige Quantile erweiterbar. Beim Test auf ein anderes Quantil als den Median ist die hypothetische Wahrscheinlichkeit (hier 1/2) entsprechend anzupassen (siehe Binomialtest).

Vorgehen[Bearbeiten]

Die Stichprobenwerte, die größer als der hypothetische Median \theta_0 sind, bekommen ein "+" zugeordnet; Werte, die kleiner sind, ein "-". Das heißt, die Stichprobenvariable wird mediandichotomisiert. Die Anzahl der positiven Vorzeichen wird gezählt und dient als Teststatistik.

Zweistichprobenproblem[Bearbeiten]

Der Vorzeichentest findet Anwendung, wenn zwei verbundene Stichproben untersucht werden sollen. Verbundene Stichproben liegen vor, wenn die Beobachtungen beider Gruppen jeweils paarweise voneinander abhängen, zum Beispiel wenn der Gesundheitszustand derselben Person vor und nach einer Behandlung untersucht wird. Aus dem Größenvergleich zwischen den Werten eines jeden Paares werden entsprechende Vorzeichen ("+" oder "-") erzeugt.

Der Vorzeichentest testet auf Gleichheit der Verteilungsfunktion zweier Zufallsvariablen aus verbundenen stetig verteilten Gesamtheiten. Unterscheiden sich die Mediane der Stichproben signifikant, ist die Verteilung in der Grundgesamtheit unterschiedlich.

Annahmen[Bearbeiten]

  • Die n Beobachtungspaare dürfen nicht voneinander abhängen, d.h. das Wertepaar (x_{1i},x_{2i})\, muss unabhängig vom Wertepaar (x_{1j},x_{2j}), \forall \; i \neq j sein.[1][2]
  • Die zugrundeliegende Zufallsvariable sind in der Grundgesamtheit stetig verteilt.[1][2]
  • Da paarweise Größenvergleiche zwischen den Beobachtungen durchgeführt werden, muss das untersuchte Merkmal mindestens auf ordinalem Niveau erhoben worden sein.[2][5][8]

Hypothesen[Bearbeiten]

Besitzen beide Grundgesamtheiten den gleichen Median, gilt P(X11>X12)=P(X11<X12). Folgende Hypothesen können mit dem Vorzeichentest geprüft werden:

Einseitig Zweiseitig
Nullhypothese \, H_0 \, P(X_{1} \geq X_{2}) \geq 1/2 \, P(X_{1} \geq X_{2}) \leq 1/2 \, P(X_{1} \geq X_{2}) = 1/2
Alternativhypothese \, H_1: \, P(X_{1} \geq X_{2}) < 1/2 \, P(X_{1} \geq X_{2}) > 1/2 \, P(X_{1} \geq X_{2}) \neq 1/2

Vorgehen[Bearbeiten]

Die Wertepaare der Stichproben, bei denen x_{i1} > x_{i2} gilt, bekommen ein "+" zugeordnet; Wertepaare, für die x_{i1} < x_{i2} gilt, ein "-". Die Anzahl der positiven Vorzeichen wird gezählt und dient als Teststatistik.

Teststatistik[Bearbeiten]

Exakte Verteilung[Bearbeiten]

Die Teststatistik entspricht der Anzahl der positiven Vergleiche (Differenzen der Werte bzw. Ränge):

V=\sum_{i=1}^{n'}\mathrm{I}(x_{i1}>x_{i2}) \sim B(\pi=0{,}5,n')

mit

\mathrm{I}(x_{i1}>x_{i2})=
\begin{cases}
1, \quad \text{wenn}\; x_{i1} > x_{i2}\\
0, \quad \text{sonst}\\
\end{cases}

Für das Einstichprobenproblem sind die Werte der zweiten Stichprobe durch den hypothetischen Median zu ersetzen. Bei Gültigkeit der Nullhypothese H_0 ist die Summe der positiven Differenzen binomialverteilt mit \pi=0{,}5, da der Median dem 50 %-Quantil entspricht. n' bezeichnet den nach Behandlung von Ties (Nulldifferenzen, Rangbindungen) verbleibenden Stichprobenumfang. Bei Gültigkeit der Nullyhypothese ist die Verteilung der Prüfgröße symmetrisch.

Approximation durch die Normalverteilung[Bearbeiten]

Mit n \rightarrow \infty nähert sich die Binomialverteilung einer Normalverteilung mit N(np,np(1-p)). Eine Faustregel für eine brauchbare Approximation lautet np(1-p)\geq 9.[3]. Bei Gültigkeit der Nullhypothese ist p=1/2

Wenn also \tfrac{1}{4}n\geq 9 bzw. n\geq 36 gilt, ist die z-standardisierte Größe

z_V = \frac{\sum_{i=1}^{n'} - \frac{1}{2}\cdot n'}{\tfrac{1}{2}\sqrt{n'}} \approx N(0,1)

näherungsweise standardnormalverteilt und die kritischen Werte zur Testentscheidung können aus der Tabelle der Standardnormalverteilung abgelesen werden.

Bindungen (Nulldifferenzen)[Bearbeiten]

Da stetige Zufallsvariablen in der Regel nur diskret erhoben werden, können Bindungen auftreten. Sind im Zweistichprobenproblem die Werte von Beobachtungen von der ersten zur zweiten Stichprobe unverändert oder sind im Einstichprobenproblem einige Werte gleich dem Median, ergeben sich Nulldifferenzen bzw. Bindungen (Ties). Ein Binomialtest kann jedoch nur zwei Kategorien (hier + und -) behandeln. Deshalb stellt sich die Frage, wie Rangbindungen behandelt werden können. Mögliche Methoden sind:

  • Beobachtungen mit Rangbindungen werden eliminiert, d.h. der Stichprobenumfang wird reduziert.[9][10]
  • Die Beobachtungen werden zu gleichen Teilen den Gruppen zugeordnet. Bei ungerader Anzahl von Bindungen wird ein Beobachtungspaar eliminiert.[9][10]
  • Die Beobachtungen werden jeweils mit einer Wahrscheinlichkeit von 0,5 einer der beiden Gruppen (+ oder -) zugeordnet.[9][10]
  • Nulldifferenzen erhalten das seltenere Vorzeichen (sehr konservatives Vorgehen).[9]

Beispiel für ein Zweistichprobenproblem[Bearbeiten]

Eine Schulbehörde möchte untersuchen, ob sich die Schulleistungen von Schülern durch eine neue Lernmethode (zum Beispiel E-Learning) verbessert haben. Die Schulleistungen einer Zufallsstichprobe von 43 Schülern werden anhand eines geeigneten Tests gemessen. Danach werden die Schüler mit der neuen Lernmethode konfrontiert. Nach der Konfrontation werden die Schulleistungen an denselben Schülern erneut erhoben. Die Schulbehörde führt mit den erhaltenen Beobachtungen einen rechtsseitigen Vorzeichentest durch:

Zur Auswertung werden die Häufigkeiten der Vorzeichen (+,-,=) der Differenzen bestimmt:

Vorzeichen + - = Summe
Anzahl 25 11 7 43

Bei 25 Schülern haben sich die Leistungen verbessert. Bei elf Schülern wurden sie schlechter und bei sieben blieben sie gleich. Können wir aus diesem Ergebnis schließen, dass die neue Lernmethode in der Grundgesamtheit einen positiven Effekt besitzt?

Bindungen

Der Stichprobenumfang n wird um die Anzahl der Bindungen auf n' = n_{+} + n_{-} = 25 + 11 = 36 reduziert.

Binomialtest

Bei Verwendung der Binomialverteilung als Testverteilung ergibt sich auf einem (maximalen) Signifikanzniveau von 0,05 ein kritischer Wert von 23 (0,95-Quantil der Binomialverteilung, p-Wert = 0,01441). Da 25 > 23, ist die Nullhypothese (keine Verbesserung) abzulehnen. Die Schulbehörden können also nach einem solchen Ergebnis schließen, dass E-Learning einen positiven Einfluss auf die Schulleistungen hat.

Normalverteilungsapproximation

Der kritische Wert der Standardnormalverteilung für α = 0,05 ist 1,6449 (0,95-Quantil der Standardnormalverteilung).

Die Näherung der Verteilung der Teststatistik durch die Normalverteilung ergibt

z = \frac{25 - \frac{1}{2}\cdot 36}{\tfrac{1}{2}\sqrt{36}} = \frac{7}{3} \approx 2{,}33 > 1{,}6449

mit einem zugehörigen p-Wert, also die Wahrscheinlichkeit, dass der erhaltene Prüfwert oder ein größerer unter der Nullhypothese auftritt, von 1 - 0{,}9902 = 0{,}0098. Die Schulbehörden können auch hier auf einem Signifikanzniveau von 5 % schließen, dass E-Learning einen positiven Einfluss auf die Schulleistungen hat.

Einzelnachweise[Bearbeiten]

  1. a b c d e f  Bernd Rönz, Hans G. Strohe: Lexikon Statistik. Gabler Wirtschaft, 1994, S. 412.
  2. a b c d e f g h  J. Hartung: Statistik: Lehr- und Handbuch der angewandten Statistik. 8. Auflage. Oldenbourg, 1991, S. 242.
  3. a b  Horst Rinne: Taschenbuch der Statistik. 3. Auflage. Verlag Harri Deutsch, 2003, S. 530.
  4.  Werner Voß: Taschenbuch der Statistik. 1. Auflage. Fachbuchverlag Leipzig, 2000, S. 463.
  5. a b c  Werner Voß: Taschenbuch der Statistik. 1. Auflage. Fachbuchverlag Leipzig, 2000, S. 470.
  6.  J. L. Gastwirth: On the Sign Test for Symmetry. Vol. 66, Nr. 336, Journal of the American Statistical Association, 1971, S. 821-823.
  7.  Jürgen Bortz, Gustav A. Lienert, Klaus Boehnke: Verteilungsfreie Methoden in der Biostatistik. 3. Auflage. Springer, 2008, S. 258.
  8. a b  Jürgen Bortz, Gustav A. Lienert, Klaus Boehnke: Verteilungsfreie Methoden in der Biostatistik. 3. Auflage. Springer, 2008, S. 256.
  9. a b c d  Jürgen Bortz, Gustav A. Lienert, Klaus Boehnke: Verteilungsfreie Methoden in der Biostatistik. 3. Auflage. Springer, 2008, S. 257.
  10. a b c  K. Bosch: Statistik-Taschenbuch. Oldenbourg, 1992, S. 675-676.