Shapiro-Wilk-Test

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Der Shapiro-Wilk-Test ist ein statistischer Signifikanztest, der die Hypothese überprüft, dass die zugrunde liegende Grundgesamtheit einer Stichprobe normalverteilt ist. Der Test wurde von Samuel Shapiro und Martin Wilk entwickelt und 1965 erstmals vorgestellt.

Die Nullhypothese H0 nimmt an, dass eine Normalverteilung der Grundgesamtheit vorliegt. Demgegenüber unterstellt die Alternativhypothese H1, dass keine Normalverteilung gegeben ist. Wenn der Wert der Teststatistik {W} größer ist als der kritische Wert {W}_\text{kritisch}, wird die Nullhypothese nicht abgelehnt und es wird angenommen, dass eine Normalverteilung vorliegt.

Wird alternativ der p-Wert des Tests ermittelt, so wird die Nullhypothese in der Regel nicht abgelehnt, wenn der p-Wert größer ist als das festgelegte Signifikanzniveau α.

Das Testverfahren wurde 1965 von dem Amerikaner Samuel Shapiro und dem Kanadier Martin Wilk veröffentlicht und ist das Ergebnis ihrer ursprünglichen Idee, die graphischen Informationen der Analyse auf Normalverteilung mittels Normalwahrscheinlichkeitsplot in einer Kennzahl zusammenzufassen.

Der Test kann zum Überprüfen von univariaten Stichproben mit 3 bis 5000 Beobachtungen eingesetzt werden. Eine Weiterentwicklung des Tests, der sogenannte Royston's H-Test, ermöglicht die Überprüfung mehrdimensionaler Stichproben auf multivariate Normalverteilung.

Neben anderen bekannten Tests auf Normalverteilung, wie beispielsweise dem Kolmogorow-Smirnow-Test oder dem Chi-Quadrat-Test, zeichnet sich der Shapiro-Wilk-Test durch seine vergleichsweise hohe Teststärke in zahlreichen Testsituationen aus, insbesondere bei der Überprüfung von kleineren Stichproben mit n < 50.

Der Shapiro-Wilk-Test oder Abwandlungen des Tests wie der Ryan-Joiner-Test sind in gängigen kommerziellen und nicht kommerziellen statistischen Softwarepaketen vertreten.

Eigenschaften[Bearbeiten]

Vortest für weitere Testvorhaben[Bearbeiten]

Einige inferenzstatistische Analyseverfahren (wie beispielsweise Varianzanalyse, t-Test oder lineare Regression) setzen voraus, dass die Vorhersagefehler (Residuen) aus einer normalverteilten Grundgesamtheit stammen, dies zumindest bei kleinen Stichprobenumfängen mit n < 30. Somit kann der Shapiro-Wilk-Test auf Normalverteilung auch als Vortest für weitere Testvorhaben aufgefasst werden.

Kein allgemeiner Anpassungstest[Bearbeiten]

Während einige Normalitätstests wie der Kolmogorow-Smirnow-Test oder der Chi-Quadrat-Test allgemeine Anpassungstests (Goodness-of-Fit-Tests) darstellen, die im Stande sind eine Stichprobe auf verschiedene hypothetische Verteilungen hin zu testen, (einschließlich der Normalverteilung), ist der Shapiro-Wilk-Test einzig auf die Untersuchung hinsichtlich Normalverteilung konzipiert. Im Unterschied zu allgemeinen Anpassungstests, die für gewöhnlich mindestens 50 - 100 Beobachtungen benötigen, um aussagekräftige Testergebnisse zu erhalten, sind beim Shapiro-Wilk-Test oft weniger Beobachtungen vonnöten.

Eigenschaft als Omnibus Test[Bearbeiten]

Der Shapiro-Wilk-Test ist ein Omnibus-Test, d. h. er ist lediglich in der Lage festzustellen, ob es eine signifikante Abweichung zur Normalverteilung gibt oder nicht. Er ist nicht im Stande zu beschreiben, in welcher Form die Abweichung auftritt. Er kann z. B. keine Aussage darüber treffen, ob die Verteilung links- oder rechtsschief ist oder ob es sich um eine endlastige (heavy-tailed) Verteilung handelt oder ggf. beides.

Stichprobenumfang bis 5000 Beobachtungen[Bearbeiten]

Ursprünglich war der Test nur im Stande, Stichproben vom Umfang 3 < n < 50 zu untersuchen. Im Jahr 1972 wurde es möglich, den Test durch eine Erweiterung von Shapiro und Francia auch für Stichproben vom Umfang n < 100 einzusetzen. Danach gab es weitere Anpassungen, die den möglichen Anwendungsbereich weiter vergrößerten. Royston führte 1992 eine weitere Verbesserung ein und machte Stichproben der Größe n < 2000 möglich. Rahman und Govidarajulu erweiterten 1997 den Einsatzbereich des Tests auf Stichproben vom Umfang n < 5000.

Hohe Teststärke[Bearbeiten]

Allgemein ist die Teststärke für sämtliche Normalitätstests bei kleinen Stichprobenumfängen geringer als bei größeren, da hier der Standardfehler relativ groß ist. Erst wenn der Stichprobenumfang größer wird, reduziert sich der Standardfehler und die Teststärke wächst. Der Shapiro-Wilk-Test hat auch bei kleinem Stichprobenumfang n < 50 eine relativ große Teststärke verglichen mit anderen Tests. Beispielsweise hat der Shapiro-Wilk-Test eine Teststärke von 54 % bei einer Stichprobengröße von 20 Beobachtungen, wenn die tatsächliche Verteilung eine Chi-Quadrat-Verteilung ist, im Vergleich zum D'Agostino-Test von 1970, der eine Teststärke von 29 % aufweist. [1]

Funktionsweise[Bearbeiten]

Die Teststatistik W ist ein Quotient, der das Verhältnis zweier Varianz-Schätzer zueinander ausdrückt.

W = \frac{b^2}{(n-1)s^2}

Die Teststatistik berechnet, mittels eines ersten Schätzers im Zähler, wie die Varianz einer Stichprobe aussehen müsste, wenn sie aus einer normalverteilten Grundgesamtheit stammte, und vergleicht diese „erwartete“ Varianz mit einem zweiten Schätzer im Nenner für die tatsächliche Varianz der Stichprobe. Wenn die Grundgesamtheit der Stichprobe in der Tat normalverteilt ist, dann müssten beide Schätzer für die Varianz unabhängig voneinander zu etwa demselben Ergebnis kommen. Je geringer die geschätzten Varianzen also voneinander abweichen, desto wahrscheinlicher ist es, dass die Grundgesamtheit der Stichprobe in Wirklichkeit normalverteilt ist.

Der Shapiro-Wilk-Test basiert demzufolge auf einer Varianzanalyse (ANOVA) der Stichprobe, was auch der Originaltitel der Veröffentlichung "An Analysis of Variance Test for Normality (for complete samples)" deutlich macht.

Der Schätzer für die Stichprobenvarianz im Nenner ist die übliche korrigierte Stichprobenvarianz s^2.

s^2=\frac{1}{n-1}\sum\limits_{i=1}^n\left(x_i-\overline x\right)^2

Die erwartete Varianz für eine aus einer normalverteilten Grundgesamtheit stammende Stichprobe im Zähler (also angenommen H0 ist wahr) wird mittels der Methode der kleinsten Quadrate geschätzt durch die Steigung der Regressionsgeraden im QQ-Plot, der die geordneten Beobachtungen einer Stichprobe mit entsprechenden Ordnungsstatistiken aus einer Normalverteilung gegenüberstellt.

Das gewöhnliche lineare Modell y_i = \alpha + \beta x_i + \varepsilon_i wird verstanden als x_i = \mu + \sigma^2 m_i + \varepsilon_i

wobei

  • \sigma^2 die Steigung der Regressionsgeraden beschreibt und damit der Schätzer b^2 im Zähler der Teststatistik ist
  • \mu der Schnittpunkt mit der y-Achse und der Schätzer für den Mittelwert ist
  • m_i die erwarteten Ordnungsstatistiken aus einer Normalverteilung sind
  • x_i die Ordnungsstatistiken aus einer Stichprobe sind
  • \varepsilon_i die Störgröße ist, die nichterfassbare Einflüsse darstellt

Mit diesem Ansatz unterscheidet sich der Test von diversen anderen Verfahren, wie beispielsweise dem Jarque-Bera-Test, der prüft, wie groß die Übereinstimmung der Stichprobenverteilung mit spezifischen Eigenschaften des Aussehens der Normalverteilung ist, die charakterisiert wird durch ihre Momente wie Schiefe und Wölbung (Skewness und Kurtosis).

Voraussetzungen[Bearbeiten]

  • Die Beobachtungen x_{(1)}, x_{(2)}, \dots , x_{(n)} der Stichprobe müssen unabhängig voneinander sein.
  • Die Stichprobe darf nicht kleiner sein als n = 3 und nicht größer als n = 5000.
  • Die Zufallsvariable muss ein metrisches Skalenniveau besitzen.

Berechnung der Teststatistik[Bearbeiten]

Der Test überprüft die Hypothese, dass eine Stichprobe aus einer normalverteilten Grundgesamtheit entnommen wurde, indem die Teststatistik W mit einem kritischen Wert für den Ablehnungsbereich (aus der Verteilung der Teststatistik) verglichen wird.

1. Aufstellen der Hypothesen und Festlegung des Signifikanzniveaus[Bearbeiten]

Es wird die Nullhypothese H_0 aufgestellt, die besagt, dass eine Normalverteilung der Grundgesamtheit vorliegt, und die Alternativhypothese H_1, die besagt, dass keine Normalverteilung vorliegt. Gleichzeitig wird ein Signifikanzniveau \alpha gewählt, üblicherweise 5 %.

  • H_0:F=F_0\quad \text{und} \quad H_1:F\ne F_0
  • \alpha

2. Erstellung der Ordnungsstatistiken[Bearbeiten]

Alle Beobachtungen der Stichprobe x_{(1)}, x_{(2)}, \dots, x_{(n)} werden nach aufsteigender Größe sortiert x_{(1)} \le x_{(2)} \le \cdots\le x_{(n)} und jedem Wert wird ein Rangplatz zugeordnet.

So erhält man die Ordnungsstatistiken der Stichprobe X_{(1)}, X_{(2)}, \ldots, X_{(n)} mit den Werten x_{(1)}, x_{(2)}, \ldots, x_{(n)}. Wobei X_{(i)} definiert ist als die i-te geordnete Statistik.

3. Berechnung der Schätzer b^2 und s^2[Bearbeiten]

W = \frac{b^2}{(n-1)s^2}

mit b als der Summe aus k Zahlenpaaren der Ordnungsstatistiken \left(x_{(n)}-x_{(i)}\right) jeweils multipliziert mit einem entsprechenden Koeffizienten a_{(i)} (auch als Gewicht bezeichnet). Wenn die Anzahl der Beobachtungen in der Stichprobe gerade ist, ist k = n/2, bei ungerader Anzahl ist k = (n-1)/2. Somit gilt:

b=a_{(1)}\left(x_{(n)} - x_{(1)}\right)+a_{(2)}\left(x_{\left(n-1\right)}-x_{(2)}\right) + \cdots

wobei die Koeffizienten a_{(i)} gegeben sind durch die Komponenten des Vektors

a={[(m^{\top }V^{-1}V^{-1}m)}^{-\ {{1}\over {2}}}]\ m^{\top }V^{-1}

mit m_{(i)} stellvertretend für die erwarteten Ordnungsstatistiken einer Normalverteilung

m={(m_{(1)},\dots ,\ m_{(n)})}^{\top } wobei m_{(i)} ungefähr gleich {\Phi }^{-1}\left({{i-{{3}\over {8}}}\over {n+{{1}\over {4}}}}\right) ist mit {\Phi }\left(x_{(i)}\right)=\ {{1}\over {\sigma \sqrt{2\pi }}}e^{-\ {{{\left(x_{(i)}-\mu \right)}^2}\over {2{\sigma }^2}}}

und der Kovarianzmatrix V bestehend aus den erwarteten Ordnungsstatistiken

V=
\begin{pmatrix} 
\operatorname{Cov}(m_1,m_1) & \cdots & \operatorname{Cov}(m_1,m_n) \\
\vdots & \ddots & \vdots \\
\operatorname{Cov}(m_n,m_1) & \cdots& \operatorname{Cov}(m_n,m_n)
\end{pmatrix}

Die Koeffizienten a_{(1)}, \dots, a_{(n)} sind auch häufig für die ersten 50 Zahlenpaare in Tabellen vieler Statistikbücher zu finden.

Die Varianz s^2 sowie dem Mittelwert \overline{x} der Stichprobe werden berechnet durch

s^2 = \frac{\sum^n_{i=1}(x_i - \overline{x})^2}{n-1} \quad \text{mit} \quad \overline{x} = \frac{\sum^n_{i=1} x_i}{n}

4. Vergleich der Teststatistik mit einem kritischen Wert[Bearbeiten]

Der Wert der Teststatistik W wird mit einem kritischen Wert W_\text{kritisch} für einen gegebenen Stichprobenumfang n und das zuvor festgelegte Signifikanzniveau α verglichen. Für die kritischen Werte mit n < 50 existieren Tabellen, die in vielen Statistikbüchern abgedruckt werden. Kritische Werte für Stichproben mit n > 50 können mittels Monte-Carlo-Simulation ermittelt werden.

Beurteilung der Ergebnisse[Bearbeiten]

Wenn der Wert der Teststatistik W größer ist als der kritische Wert {W}_\text{kritisch}, wird die Nullhypothese nicht abgelehnt. D. h. es wird angenommen, dass eine Normalverteilung vorliegt. Die Teststatistik W kann wie ein Korrelationskoeffizient interpretiert werden, der Werte zwischen 0 und 1 annehmen kann, ähnlich dem Bestimmtheitsmaß. Je näher die Teststatistik an 1 liegt, desto weniger Abweichungen zeigt die tatsächliche Varianz von der hypothetischen Varianz unter Annahme von Normalverteilung. Gibt es jedoch statistisch signifikante Abweichungen, d. h. die Teststatistik W ist kleiner als der kritische Wert {W}_\text{kritisch} (W ist signifikant klein), so wird die Nullhypothese zu Gunsten der Alternativhypothese abgelehnt und es wird angenommen, dass keine Normalverteilung vorliegt. Damit steht der Shapiro-Wilk-Test im Gegensatz zu vielen anderen Normalitätstests, die die Nullhypothese dann ablehnen, wenn die jeweilige Teststatistik größer als der kritische Wert ist.

Auswertung mittels p-Wert[Bearbeiten]

Alternativ zur Teststatistik W geben viele Computerprogramme zusätzlich den p-Wert an.

Der p-Wert gibt die Wahrscheinlichkeit an, eine solche Stichprobe zu erhalten, wie sie gezogen wurde, unter der Annahme, dass die Stichprobe tatsächlich aus einer normalverteilten Grundgesamtheit stammt. (Nullhypothese ist wahr)

  • Je kleiner der p-Wert ist, desto kleiner ist die Wahrscheinlichkeit, dass eine solche Stichprobenziehung bei einer normalverteilten Grundgesamtheit vorkäme.
  • Ein p-Wert von 0 sagt aus, dass es 0 % wahrscheinlich ist, und ein p-Wert von 1, dass es 100 % wahrscheinlich ist, eine solche Stichprobe zu ziehen, wenn sie aus einer Normalverteilung stammte.
  • In der Regel wird die Nullhypothese abgelehnt, wenn der p-Wert kleiner ist als das vorgegebene Signifikanzniveau.

Die Methode zur Berechnung des p-Wertes ist abhängig vom Stichprobenumfang n. Für n = 3 ist die Wahrscheinlichkeitsverteilung von W bekannt. Für Stichproben mit n > 3 wird eine Transformation in die Normalverteilung durchgeführt.

Die Werte σ, γ, μ für die jeweiligen Stichprobengrößen n > 3 werden per Monte-Carlo-Simulation errechnet.

Praktisches Beispiel[Bearbeiten]

Die folgenden 10 Beobachtungen (n=10) einer Stichprobe werden auf Normalverteilung überprüft:

  • 200, 545, 290, 165, 190, 355, 185, 205, 175, 255

Die geordnete Stichprobe lautet:

  • 165, 175, 185, 190, 200, 205, 255, 290, 355, 545

Die Anzahl der Stichprobe ist gerade mit n = 10, somit werden k = n/2 = 5 Zahlenpaare gebildet. Die entsprechenden Gewichte a_{(i)} werden einer Tabelle entnommen.

  • b = 0,5739(545-165) + 0,3291(355-175) + 0,2141(290-185) + 0,1224(255-190) + 0,0399(205-200) = 218,08 + 59,24 + 22,48 + 7,96 + 0,2 = 307, 96

Für die Stichprobe ist s = 117,59

Demzufolge,

W = \frac{{307{,}96}^2}{\left(10-1\right){117{,}59}^2} = 0{,}76

Der kritische Wert für n = 10 bei einem Signifikanzniveau von \alpha=5% wird einer Tabelle entnommen und lautet {W}_\text{kritisch} = 0{,}842.

Da {W\le W}_\text{kritisch} (0,76 < 0,842), fällt W in den Ablehnungsbereich, und die Nullhypothese wird abgelehnt. Folglich wird angenommen, dass die Stichprobe keiner normalverteilten Grundgesamtheit entstammt. Die Dichtefunktion der W-Teststatistik ist sehr linksschief und der Ablehnungsbereich des Tests fällt ins kleine Ende der Verteilung.

Vor- und Nachteile[Bearbeiten]

Vorteile[Bearbeiten]

  • Gegenüber einer eher subjektiven visuellen Überprüfung auf Normalverteilung mittels eines Histogramms oder eines QQ-Plots bietet der Shapiro-Wilk-Test als statistischer Signifikanztest die Möglichkeit, eine Betrachtung nach objektiveren Maßstäben vorzunehmen.
  • In vielen Testsituationen bietet der Test eine hohe Teststärke, insbesondere bei kleineren Stichproben mit n < 50.
  • Mittelwert und Varianz der hypothetischen Normalverteilung müssen vorher nicht bekannt sein.
  • Der Test kann für Stichproben zwischen 3 < n < 5000 eingesetzt werden.
  • Viele gängige Statistik-Softwarepakete wie SAS, SPSS, Minitab und R haben den Test implementiert.

Nachteile[Bearbeiten]

  • Der Test reagiert sehr sensibel auf Ausreißer, sowohl für einseitige als auch beidseitige Ausreißer. Ausreißer können das Verteilungsbild stark verzerren, so dass dadurch die Normalverteilungsannahme fälschlicherweise abgelehnt werden könnte.
  • Die Tatsache, dass gerade größere Untersuchungen durch Computerprogramme durchgeführt werden, kann unter Umständen zu Fehlentscheidungen des Tests führen: Da Daten aus der Standardnormalverteilung auf reellen Zahlen basieren, der Computer aber mit gerundeten Werten rechnet, können sich Rundungsfehler schnell addieren, so dass Abweichungen zwischen theoretischen und empirischen Daten künstlich generiert werden, die, wenn sie groß genug sind, zur Ablehnung der Nullhypothese führen könnten.
  • Der Test ist relativ anfällig gegenüber Bindungen (Ties), d. h. wenn es viele identische Werte gibt, wird die Teststärke stark beeinträchtigt. Falls ursprünglich mit gerundeten Daten gearbeitet wurde, lässt sich die Teststärke mit der sogenannten Sheppard-Korrektur verbessern. Die Korrektur von Sheppard produziert ein angepasstes W, gegeben durch W_\text{angepasst}=W*\ {{\sum{{(x_{\left(i\right)}-\overline{x})}^2}}\over {\left\{\sum^{n>}_{i=1}{{(x_{\left(i\right)}-\overline{x})}^2-{{n-1}\over {12}}}\omega^2\right\}}}

mit \omega als Rundungsdifferenz.

  • Die Funktionsweise des Tests ist sehr mathematisch und daher nicht leicht zu verstehen.
  • Der Test erfordert den Gebrauch von speziellen Koeffizienten, den Gewichten, die nur für kleinere Stichprobenumfänge n < 50 in Form einer Tabelle vorliegen.
  • Bei Berechnung der Teststatistik und der kritischen Werte ohne Computerprogramm ist der Rechenaufwand bei größeren Stichprobenumfängen sehr hoch.

Alternative Verfahren[Bearbeiten]

Andere Signifikanztests[Bearbeiten]

Neben dem Shapiro-Wilk-Test existieren mindestens 40 weitere Normalitätstests bzw. Modifikationen einzelner Tests.[2]

Normalitätstests vergleichen auf die eine oder andere Weise charakteristische Merkmale der modellhaften Standardnormalverteilung, die gewissermaßen als Maßstäbe dienen, mit der Verteilung der Stichprobe. Die Tests unterscheiden sich in der Hinsicht, welche Maßstäbe sie als Vergleichskriterium heranziehen.

Während der Shapiro-Wilk-Test die Technik der Regression und Korrelation einsetzt und die Korrelation hinsichtlich Varianz analysiert, basieren andere Testverfahren auf der Untersuchung der Verteilungsfunktion (z. B. Kolmogorow-Smirnow-Test, Anderson-Darling-Test, Cramér-von-Mises-Test).

Weitere Tests richten ihr Hauptaugenmerk auf den Vergleich von Schiefe- und Kurtosis-Eigenschaften (z. B. D'Agostino-Pearson-Test, Jarque-Bera-Test, Anscombe-Glynn-Test).

Die Teststärke jedes Normalitätstests variiert in Abhängigkeit von Stichprobengröße, tatsächlicher Verteilung und anderen Faktoren wie Ausreißern und Bindungen. Es gibt keinen einzelnen Test, der für alle Situationen die höchste Teststärke aufweist.

Graphische Methoden[Bearbeiten]

Histogramm und Normalwahrscheinlichkeitsplots wie der QQ-Plot oder der PP-Plot werden häufig als Werkzeuge zur visuellen Überprüfung der Verteilung auf Normalverteilung eingesetzt und können die Aussage eines Signifikanztests entweder bekräftigen oder anfechten.

Einzelnachweise[Bearbeiten]

  1. Edith Seier: Comparison of Tests for Univariate Normality, Department of Mathematics. East Tennessee State University, 2002 http://interstat.statjournals.net/YEAR/2002/articles/0201001.pdf
  2. Bernayazici, Senayyolacan: A comparison of various tests of normality, Journal of Statistical Computation and Simulation, 2007

Literatur[Bearbeiten]

  • Sam S. Shapiro, Martin Bradbury Wilk: An analysis of variance test for normality (for complete samples), Biometrika, 1965
  • D. G. Rees: Essential Statistics, Chapman & Hall, 2000
  • Berna Yazici, Senay Yolacan: A comparison of various tests of normality, Journal of Statistical Computation and Simulation, 77(2), 2007, pp. 175-183
  • Edith Seier: Comparison of Tests for Univariate Normality, Department of Mathematics. East Tennessee State University, 2002
  • Manfred Precht, Roland Kraft, Martin Bachmaier: Angewandte Statistik, Oldenbourg, 2005
  • J. R. Leslie, M. A. Stephens und Fotopoulos: Asymptotic Distribution of the Shapiro-Wilk W for Testing Normality, The Annals of Statistics, 1986

Weblinks[Bearbeiten]