Wald-Test

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Der Wald-Test ist ein statistischer Test, der 1943 von Abraham Wald vorgestellt worden ist. Ist ein unbekannter Parameter in der Grundgesamtheit und ein vorgegebener Wert, so prüft er die Hypothesen:

  vs.  

Das Problem ist, die Verteilung einer geeigneten Teststatistik unter Gültigkeit der Nullhypothese zu bestimmen. Der Wald-Test basiert auf der Tatsache, dass der Maximum-Likelihood-Schätzer für den unbekannten Parameter für große Beobachtungszahlen in Verteilung gegen eine Normalverteilung strebt. Viele Tests lassen sich daher als Spezialfälle des Wald-Tests auffassen.

Beispiele[Bearbeiten | Quelltext bearbeiten]

Einstichproben Gauß-Test als Spezialfall des Wald-Tests[Bearbeiten | Quelltext bearbeiten]

Wenn eine Variable in einer Grundgesamtheit normalverteilt ist mit mit unbekanntem Parameter und bekanntem , dann ist der Stichprobenmittelwert

auch der Maximum-Likelihoodschätzer für . Eine der Hypothesen für den Einstichproben-Gauß-Test lautet:

  vs.  

und die Teststatistik nach Wald wäre

.

Somit kann der Einstichproben-Gauß-Test als Spezialfall des Wald-Tests aufgefasst werden.

Anwendung in der Regressionsanalyse[Bearbeiten | Quelltext bearbeiten]

Mit dem Wald-Test kann z. B. geprüft werden, ob eine oder alle unabhängigen Variablen einen signifikanten Beitrag zu einem generalisierten linearen Regressionsmodell liefern:

.

Sowohl die abhängige Variable als auch die unabhängigen Variablen können binär (kategoriell) oder metrisch sein, der Wald-Test kann dann die Hypothesen testen:

  •   vs.   bzw.
  •   vs.   mindestens ein .

Wenn der Wald-Test für eine oder mehrere unabhängige Variablen die Nullhypothese ablehnt, dann können wir davon ausgehen, dass die zugehörigen Parameter ungleich Null sind, so dass die Variable(n) in das Modell mit einbezogen werden sollten. Wenn es nur um eine unabhängige Variable geht, dann wird ein T-Test benutzt, um zu überprüfen, ob der Parameter signifikant ist. Für einen einzelnen Parameter stimmt das Ergebnis der Wald-Statistik mit dem Ergebnis des Quadrates der T-Statistik überein.

Im klassischen linearen Regressionsmodell () ist jedoch z. B. der F-Test auch bei kleinen (endlichen) Stichproben exakt und daher bei bekannter Verteilung des Schätzers vorzuziehen (so z. B. im klassischen linearen Regressionsmodell oder bei der Paneldatenanalyse mit festen Effekten – fixed effects).

Mathematischer Hintergrund[Bearbeiten | Quelltext bearbeiten]

Univariater Fall[Bearbeiten | Quelltext bearbeiten]

Aus der Maximum-Likelihood-Theorie weiß man, dass der Maximum-Likelihood-Schätzer des unbekannten Parameters in Verteilung für große Beobachtungszahlen gegen eine Normalverteilung strebt:

.

Im univariaten Fall ergibt sich die Wald-Teststatistik für die Hypothesen vs. zu

.

wird auch als der Standardfehler des Maximum-Likelihood-Schätzers bezeichnet. Betrachtet man die quadrierte Teststatistik, so gilt:

,

d.h. sie ist bei großen Stichproben asymptotisch Chi-Quadrat-verteilt.

Multivariater Fall[Bearbeiten | Quelltext bearbeiten]

Im multivariaten Fall gilt

wobei der Vektor der Schätzfunktionen ist und die asymptotisch nichtsinguläre Kovarianzmatrix des Maximum-Likelihood-Schätzers bezeichnet. Die Teststatistik

ist dann asymptotisch Chi-Quadrat-verteilt mit Freiheitsgraden. Die Restriktionsfunktion muss hierzu unter vollständig differenzierbar sein und vollen Rang haben.

Alternativen[Bearbeiten | Quelltext bearbeiten]

Eine Alternative zum Wald-Test bietet der Likelihood-Ratio-Test. Dieser ist zwar rechenaufwändiger, dafür zeigt er in kleinen Stichproben jedoch auch bessere Eigenschaften. Eine weitere Alternative ist der sogenannte Lagrange-Multiplikator-Tests (LM-Tests, siehe auch Lagrange-Multiplikator). Asymptotisch sind diese drei Tests jedoch identisch.

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Wald's W-Statistics: Encyclopedia of Statistical Sciences, Hoboken: Wiley, 2006, Seiten 9028-9029.
  • Wald, Abraham: Tests of Statistical Hypotheses Concerning Several Parameters When the Number of Observations is Large; in: Transactions of the American Mathematical Society, Vol. 54, No. 3 (Nov., 1943), Seiten 426-482.
  • Liao, Tim F. (2004): Comparing Social Groups: Wald Statistics for Testing Equality Among Multiple Logit Models, in: International Journal of Comparative Sociology, Vol. 45, No. 1-2, 2004, Seite 3-16.
  • Davidson, Russell/MacKinnon, James G. (2004): Econometric Theory and Methods, 1. Aufl., New York: Oxford University Press, 2004, Seite 422ff. Siehe hier: [1]
  • Engle, Robert F. (1984): Wald, Likelihood Ratio and Lagrange Multiplier Tests in Econometrics, in: Griliches, Zvi/Intriligator, Michael D. (Hrsg.): Handbook of Econometrics Vol. 2, Amsterdam et al.: Elsevier, 1984, Seite 775-826.