Shapiro-Wilk-Test

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Der Shapiro-Wilk-Test ist ein statistischer Signifikanztest, der die Hypothese überprüft, dass die zugrunde liegende Grundgesamtheit einer Stichprobe normalverteilt ist. Der Test wurde von Samuel Shapiro und Martin Wilk entwickelt und 1965 erstmals vorgestellt.

Die Nullhypothese H0 nimmt an, dass eine Normalverteilung der Grundgesamtheit vorliegt. Demgegenüber unterstellt die Alternativhypothese H1, dass keine Normalverteilung gegeben ist. Wenn der Wert der Teststatistik größer ist als der kritische Wert , wird die Nullhypothese nicht abgelehnt und es wird angenommen, dass eine Normalverteilung vorliegt.

Wird alternativ der p-Wert des Tests ermittelt, so wird die Nullhypothese in der Regel nicht abgelehnt, wenn der p-Wert größer ist als das festgelegte Signifikanzniveau α.

Das Testverfahren wurde 1965 von dem Amerikaner Samuel Shapiro und dem Kanadier Martin Wilk veröffentlicht und ist das Ergebnis ihrer ursprünglichen Idee, die graphischen Informationen der Analyse auf Normalverteilung mittels Normalwahrscheinlichkeitsplot in einer Kennzahl zusammenzufassen.

Der Test kann zum Überprüfen von univariaten Stichproben mit 3 bis 5000 Beobachtungen eingesetzt werden. Eine Weiterentwicklung des Tests, der sogenannte Royston's H-Test, ermöglicht die Überprüfung mehrdimensionaler Stichproben auf multivariate Normalverteilung.

Neben anderen bekannten Tests auf Normalverteilung, wie beispielsweise dem Kolmogorow-Smirnow-Test oder dem Chi-Quadrat-Test, zeichnet sich der Shapiro-Wilk-Test durch seine vergleichsweise hohe Teststärke in zahlreichen Testsituationen aus, insbesondere bei der Überprüfung von kleineren Stichproben mit n < 50.

Der Shapiro-Wilk-Test oder Abwandlungen des Tests wie der Ryan-Joiner-Test sind in gängigen kommerziellen und nicht kommerziellen statistischen Softwarepaketen vertreten.

Eigenschaften[Bearbeiten | Quelltext bearbeiten]

Vortest für weitere Testvorhaben[Bearbeiten | Quelltext bearbeiten]

Einige inferenzstatistische Analyseverfahren (wie beispielsweise Varianzanalyse, t-Test oder lineare Regression) setzen voraus, dass die Vorhersagefehler (Residuen) aus einer normalverteilten Grundgesamtheit stammen, dies zumindest bei kleinen Stichprobenumfängen mit n < 30. Somit kann der Shapiro-Wilk-Test auf Normalverteilung auch als Vortest für weitere Testvorhaben aufgefasst werden.

Kein allgemeiner Anpassungstest[Bearbeiten | Quelltext bearbeiten]

Während einige Normalitätstests wie der Kolmogorow-Smirnow-Test oder der Chi-Quadrat-Test allgemeine Anpassungstests (Goodness-of-Fit-Tests) darstellen, die im Stande sind eine Stichprobe auf verschiedene hypothetische Verteilungen hin zu testen, (einschließlich der Normalverteilung), ist der Shapiro-Wilk-Test einzig auf die Untersuchung hinsichtlich Normalverteilung konzipiert. Im Unterschied zu allgemeinen Anpassungstests, die für gewöhnlich mindestens 50 - 100 Beobachtungen benötigen, um aussagekräftige Testergebnisse zu erhalten, sind beim Shapiro-Wilk-Test oft weniger Beobachtungen vonnöten.

Eigenschaft als Omnibus Test[Bearbeiten | Quelltext bearbeiten]

Der Shapiro-Wilk-Test ist ein Omnibus-Test, d. h. er ist lediglich in der Lage festzustellen, ob es eine signifikante Abweichung zur Normalverteilung gibt oder nicht. Er ist nicht im Stande zu beschreiben, in welcher Form die Abweichung auftritt. Er kann z. B. keine Aussage darüber treffen, ob die Verteilung links- oder rechtsschief ist oder ob es sich um eine endlastige (heavy-tailed) Verteilung handelt oder ggf. beides.

Stichprobenumfang bis 5000 Beobachtungen[Bearbeiten | Quelltext bearbeiten]

Ursprünglich war der Test nur im Stande, Stichproben vom Umfang 3 ≤ n < 50 zu untersuchen. Im Jahr 1972 wurde es möglich, den Test durch eine Erweiterung von Shapiro und Francia auch für Stichproben vom Umfang n < 100 einzusetzen. Danach gab es weitere Anpassungen, die den möglichen Anwendungsbereich weiter vergrößerten. Royston führte 1982 eine weitere Verbesserung ein und machte Stichproben der Größe n < 2000 möglich. Rahman und Govidarajulu[1] erweiterten 1997 den Einsatzbereich des Tests auf Stichproben vom Umfang n ≤ 5000.

Hohe Teststärke[Bearbeiten | Quelltext bearbeiten]

Allgemein ist die Teststärke für sämtliche Normalitätstests bei kleinen Stichprobenumfängen geringer als bei größeren, da hier der Standardfehler relativ groß ist. Erst wenn der Stichprobenumfang größer wird, reduziert sich der Standardfehler und die Teststärke wächst. Der Shapiro-Wilk-Test hat auch bei kleinem Stichprobenumfang n < 50 eine relativ große Teststärke verglichen mit anderen Tests. Beispielsweise hat der Shapiro-Wilk-Test eine Teststärke von 54 % bei einer Stichprobengröße von 20 Beobachtungen, wenn die tatsächliche Verteilung eine Chi-Quadrat-Verteilung ist, im Vergleich zum D'Agostino-Test von 1970, der eine Teststärke von 29 % aufweist. [2]

Funktionsweise[Bearbeiten | Quelltext bearbeiten]

Die Teststatistik W ist ein Quotient, der das Verhältnis zweier Varianz-Schätzer zueinander ausdrückt.

Die Teststatistik berechnet, mittels eines ersten Schätzers im Zähler, wie die Varianz einer Stichprobe aussehen müsste, wenn sie aus einer normalverteilten Grundgesamtheit stammte, und vergleicht diese „erwartete“ Varianz mit einem zweiten Schätzer im Nenner für die tatsächliche Varianz der Stichprobe. Wenn die Grundgesamtheit der Stichprobe in der Tat normalverteilt ist, dann müssten beide Schätzer für die Varianz unabhängig voneinander zu etwa demselben Ergebnis kommen. Je geringer die geschätzten Varianzen also voneinander abweichen, desto wahrscheinlicher ist es, dass die Grundgesamtheit der Stichprobe in Wirklichkeit normalverteilt ist.

Der Shapiro-Wilk-Test basiert demzufolge auf einer Varianzanalyse (ANOVA) der Stichprobe, was auch der Originaltitel der Veröffentlichung "An Analysis of Variance Test for Normality (for complete samples)" deutlich macht.

Der Schätzer für die Stichprobenvarianz im Nenner ist die übliche korrigierte Stichprobenvarianz .

Die erwartete Varianz für eine aus einer normalverteilten Grundgesamtheit stammende Stichprobe im Zähler (also angenommen H0 ist wahr) wird mittels der Methode der kleinsten Quadrate geschätzt durch die Steigung der Regressionsgeraden im QQ-Plot, der die geordneten Beobachtungen einer Stichprobe mit entsprechenden Ordnungsstatistiken aus einer Normalverteilung gegenüberstellt.

Das gewöhnliche lineare Modell wird verstanden als

wobei

  • die Steigung der Regressionsgeraden beschreibt und damit der Schätzer im Zähler der Teststatistik ist
  • der Schnittpunkt mit der y-Achse und der Schätzer für den Mittelwert ist
  • die erwarteten Ordnungsstatistiken aus einer Normalverteilung sind
  • die Ordnungsstatistiken aus einer Stichprobe sind
  • die Störgröße ist, die nichterfassbare Einflüsse darstellt

Mit diesem Ansatz unterscheidet sich der Test von diversen anderen Verfahren, wie beispielsweise dem Jarque-Bera-Test, der prüft, wie groß die Übereinstimmung der Stichprobenverteilung mit spezifischen Eigenschaften des Aussehens der Normalverteilung ist, die charakterisiert wird durch ihre Momente wie Schiefe und Wölbung (Skewness und Kurtosis).

Voraussetzungen[Bearbeiten | Quelltext bearbeiten]

  • Die Beobachtungen der Stichprobe müssen unabhängig voneinander sein.
  • Die Stichprobe darf nicht kleiner sein als n = 3 und nicht größer als n = 5000.
  • Die Zufallsvariable muss ein metrisches Skalenniveau besitzen.

Berechnung der Teststatistik[Bearbeiten | Quelltext bearbeiten]

Der Test überprüft die Hypothese, dass eine Stichprobe aus einer normalverteilten Grundgesamtheit entnommen wurde, indem die Teststatistik W mit einem kritischen Wert für den Ablehnungsbereich (aus der Verteilung der Teststatistik) verglichen wird.

Aufstellen der Hypothesen und Festlegung des Signifikanzniveaus[Bearbeiten | Quelltext bearbeiten]

Es wird die Nullhypothese aufgestellt, die besagt, dass eine Normalverteilung der Grundgesamtheit vorliegt, und die Alternativhypothese , die besagt, dass keine Normalverteilung vorliegt. Gleichzeitig wird ein Signifikanzniveau gewählt, üblicherweise 5 %.

Erstellung der Ordnungsstatistiken[Bearbeiten | Quelltext bearbeiten]

Alle Beobachtungen der Stichprobe werden nach aufsteigender Größe sortiert und jedem Wert wird ein Rangplatz zugeordnet.

So erhält man die Ordnungsstatistiken der Stichprobe mit den Werten . Wobei definiert ist als die -te geordnete Statistik.

Berechnung der Schätzer b2 und s2[Bearbeiten | Quelltext bearbeiten]

mit als der Summe aus  Zahlenpaaren der Ordnungsstatistiken jeweils multipliziert mit einem entsprechenden Koeffizienten (auch als Gewicht bezeichnet). Wenn die Anzahl der Beobachtungen in der Stichprobe gerade ist, ist , bei ungerader Anzahl ist . Somit gilt:

wobei die Koeffizienten gegeben sind durch die Komponenten des Vektors

mit stellvertretend für die erwarteten Ordnungsstatistiken einer Normalverteilung

wobei ungefähr gleich ist mit

die Formel läßt sicher herleiten aus der Inversen Normalverteilung mit den Parametern (Ereignisrate) und (Mittelwert)

und der Kovarianzmatrix V bestehend aus den erwarteten Ordnungsstatistiken

Die Koeffizienten sind auch häufig für die ersten 50 Zahlenpaare in Tabellen vieler Statistikbücher zu finden.

Die Varianz sowie dem Mittelwert der Stichprobe werden berechnet durch

Vergleich der Teststatistik mit einem kritischen Wert[Bearbeiten | Quelltext bearbeiten]

Der Wert der Teststatistik W wird mit einem kritischen Wert für einen gegebenen Stichprobenumfang n und das zuvor festgelegte Signifikanzniveau α verglichen. Für die kritischen Werte mit n < 50 existieren Tabellen, die in vielen Statistikbüchern abgedruckt werden. Kritische Werte für Stichproben mit n > 50 können mittels Monte-Carlo-Simulation ermittelt werden.

Beurteilung der Ergebnisse[Bearbeiten | Quelltext bearbeiten]

Wenn der Wert der Teststatistik größer ist als der kritische Wert , wird die Nullhypothese nicht abgelehnt. D. h. es wird angenommen, dass eine Normalverteilung vorliegt. Die Teststatistik  kann wie ein Korrelationskoeffizient interpretiert werden, der Werte zwischen 0 und 1 annehmen kann, ähnlich dem Bestimmtheitsmaß. Je näher die Teststatistik an 1 liegt, desto weniger Abweichungen zeigt die tatsächliche Varianz von der hypothetischen Varianz unter Annahme von Normalverteilung. Gibt es jedoch statistisch signifikante Abweichungen, d. h. die Teststatistik  ist kleiner als der kritische Wert ( ist signifikant klein), so wird die Nullhypothese zu Gunsten der Alternativhypothese abgelehnt und es wird angenommen, dass keine Normalverteilung vorliegt. Damit steht der Shapiro-Wilk-Test im Gegensatz zu vielen anderen Normalitätstests, die die Nullhypothese dann ablehnen, wenn die jeweilige Teststatistik größer als der kritische Wert ist.

Auswertung mittels p-Wert[Bearbeiten | Quelltext bearbeiten]

Alternativ zur Teststatistik geben viele Computerprogramme zusätzlich den p-Wert an.

Der p-Wert gibt die Wahrscheinlichkeit an, eine solche Stichprobe zu erhalten, wie sie gezogen wurde, unter der Annahme, dass die Stichprobe tatsächlich aus einer normalverteilten Grundgesamtheit stammt. (Nullhypothese ist wahr)

  • Je kleiner der p-Wert ist, desto kleiner ist die Wahrscheinlichkeit, dass eine solche Stichprobenziehung bei einer normalverteilten Grundgesamtheit vorkäme.
  • Ein p-Wert von 0 sagt aus, dass es 0 % wahrscheinlich ist, und ein p-Wert von 1, dass es 100 % wahrscheinlich ist, eine solche Stichprobe zu ziehen, wenn sie aus einer Normalverteilung stammte.
  • In der Regel wird die Nullhypothese abgelehnt, wenn der p-Wert kleiner ist als das vorgegebene Signifikanzniveau.

Die Methode zur Berechnung des p-Wertes ist abhängig vom Stichprobenumfang . Für ist die Wahrscheinlichkeitsverteilung von bekannt. Für Stichproben mit wird eine Transformation in die Normalverteilung durchgeführt.

Die Werte σ, γ, μ für die jeweiligen Stichprobengrößen werden per Monte-Carlo-Simulation errechnet.

Praktisches Beispiel[Bearbeiten | Quelltext bearbeiten]

Die folgenden 10 Beobachtungen () einer Stichprobe werden auf Normalverteilung überprüft:

  • 200, 545, 290, 165, 190, 355, 185, 205, 175, 255

Die geordnete Stichprobe lautet:

  • 165, 175, 185, 190, 200, 205, 255, 290, 355, 545

Die Anzahl der Stichprobe ist gerade mit , somit werden Zahlenpaare gebildet. Die entsprechenden Gewichte werden einer Tabelle entnommen.

  • b = 0,5739(545-165) + 0,3291(355-175) + 0,2141(290-185) + 0,1224(255-190) + 0,0399(205-200) = 218,08 + 59,24 + 22,48 + 7,96 + 0,2 = 307, 96

Für die Stichprobe ist s = 117,59

Demzufolge,

Der kritische Wert für bei einem Signifikanzniveau von wird einer Tabelle entnommen und lautet .

Da (0,76 < 0,842), fällt in den Ablehnungsbereich, und die Nullhypothese wird abgelehnt. Folglich wird angenommen, dass die Stichprobe keiner normalverteilten Grundgesamtheit entstammt. Die Dichtefunktion der W-Teststatistik ist sehr linksschief und der Ablehnungsbereich des Tests fällt ins kleine Ende der Verteilung.

Vor- und Nachteile[Bearbeiten | Quelltext bearbeiten]

Vorteile[Bearbeiten | Quelltext bearbeiten]

  • Gegenüber einer eher subjektiven visuellen Überprüfung auf Normalverteilung mittels eines Histogramms oder eines QQ-Plots bietet der Shapiro-Wilk-Test als statistischer Signifikanztest die Möglichkeit, eine Betrachtung nach objektiveren Maßstäben vorzunehmen.
  • In vielen Testsituationen bietet der Test eine hohe Teststärke, insbesondere bei kleineren Stichproben mit n < 50.
  • Mittelwert und Varianz der hypothetischen Normalverteilung müssen vorher nicht bekannt sein.
  • Viele gängige Statistik-Softwarepakete wie SAS, SPSS, Minitab und R haben den Test implementiert.

Nachteile[Bearbeiten | Quelltext bearbeiten]

  • Der Test kann nur für Stichproben zwischen 3 ≤ n ≤ 5000 eingesetzt werden.
  • Der Test reagiert sehr sensibel auf Ausreißer, sowohl für einseitige als auch beidseitige Ausreißer. Ausreißer können das Verteilungsbild stark verzerren, so dass dadurch die Normalverteilungsannahme fälschlicherweise abgelehnt werden könnte.
  • Der Test ist relativ anfällig gegenüber Bindungen (Ties), d. h. wenn es viele identische Werte gibt, wird die Teststärke stark beeinträchtigt. Falls ursprünglich mit gerundeten Daten gearbeitet wurde, lässt sich die Teststärke mit der sogenannten Sheppard-Korrektur verbessern. Die Korrektur von Sheppard produziert ein angepasstes , gegeben durch

mit als Rundungsdifferenz.

  • Die Funktionsweise des Tests ist sehr mathematisch und daher nicht leicht zu verstehen.
  • Der Test erfordert den Gebrauch von speziellen Koeffizienten, den Gewichten, die nur für kleinere Stichprobenumfänge n < 50 in Form einer Tabelle vorliegen.
  • Bei Berechnung der Teststatistik und der kritischen Werte ohne Computerprogramm ist der Rechenaufwand bei größeren Stichprobenumfängen sehr hoch.

Alternative Verfahren[Bearbeiten | Quelltext bearbeiten]

Andere Signifikanztests[Bearbeiten | Quelltext bearbeiten]

Neben dem Shapiro-Wilk-Test existieren mindestens 40 weitere Normalitätstests bzw. Modifikationen einzelner Tests.[3]

Normalitätstests vergleichen auf die eine oder andere Weise charakteristische Merkmale der modellhaften Standardnormalverteilung, die gewissermaßen als Maßstäbe dienen, mit der Verteilung der Stichprobe. Die Tests unterscheiden sich in der Hinsicht, welche Maßstäbe sie als Vergleichskriterium heranziehen.

Während der Shapiro-Wilk-Test die Technik der Regression und Korrelation einsetzt und die Korrelation hinsichtlich Varianz analysiert, basieren andere Testverfahren auf der Untersuchung der Verteilungsfunktion (z. B. Kolmogorow-Smirnow-Test, Anderson-Darling-Test, Cramér-von-Mises-Test).

Weitere Tests richten ihr Hauptaugenmerk auf den Vergleich von Schiefe- und Kurtosis-Eigenschaften (z. B. D'Agostino-Pearson-Test, Jarque-Bera-Test, Anscombe-Glynn-Test).

Die Teststärke jedes Normalitätstests variiert in Abhängigkeit von Stichprobengröße, tatsächlicher Verteilung und anderen Faktoren wie Ausreißern und Bindungen. Es gibt keinen einzelnen Test, der für alle Situationen die höchste Teststärke aufweist.

Graphische Methoden[Bearbeiten | Quelltext bearbeiten]

Histogramm und Normalwahrscheinlichkeitsplots wie der QQ-Plot oder der PP-Plot werden häufig als Werkzeuge zur visuellen Überprüfung der Verteilung auf Normalverteilung eingesetzt und können die Aussage eines Signifikanztests entweder bekräftigen oder anfechten.

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Rahman und Govidarajulu: A modification of the test of Shapiro and Wilk for normality. In: Journal of Applied Statistics. 24, Nr. 2, 1997, S. 219–236. doi:10.1080/02664769723828.
  2. Edith Seier: Comparison of Tests for Univariate Normality, Department of Mathematics. East Tennessee State University, 2002 http://interstat.statjournals.net/YEAR/2002/articles/0201001.pdf
  3. Bernayazici, Senayyolacan: A comparison of various tests of normality, Journal of Statistical Computation and Simulation, 2007

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Sam S. Shapiro, Martin Bradbury Wilk: An analysis of variance test for normality (for complete samples), Biometrika, 1965
  • D. G. Rees: Essential Statistics, Chapman & Hall, 2000
  • Berna Yazici, Senay Yolacan: A comparison of various tests of normality, Journal of Statistical Computation and Simulation, 77(2), 2007, pp. 175-183
  • Edith Seier: Comparison of Tests for Univariate Normality, Department of Mathematics. East Tennessee State University, 2002
  • Manfred Precht, Roland Kraft, Martin Bachmaier: Angewandte Statistik, Oldenbourg, 2005
  • J. R. Leslie, M. A. Stephens und Fotopoulos: Asymptotic Distribution of the Shapiro-Wilk W for Testing Normality, The Annals of Statistics, 1986

Weblinks[Bearbeiten | Quelltext bearbeiten]