Chow-Test

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Der Chow-Test ist ein statistischer Test, mit dem sich die Koeffizienten zweier linearer Regressionen auf Gleichheit testen lassen. Der Test ist nach seinem Erfinder, dem Ökonomen Gregory Chow, benannt.

Der Chow-Test wird in der Ökonometrie verwendet, um Zeitreihen auf Strukturbrüche zu testen. Ein weiteres Anwendungsgebiet ist die Programmevaluation, hierbei werden zwei unterschiedliche Teilgruppen (Programme), wie zum Beispiel zwei Schultypen, miteinander verglichen. Im Gegensatz zur Zeitreihenanalyse lassen sich hier die beiden Teilgruppen keinen aufeinander folgenden Intervallen zuordnen, stattdessen erfolgt die Einteilung nach einem qualitativen Aspekt, wie zum Beispiel dem Schultyp.

Strukturbruch Programmevaluation

Chow test structural break.png

Chow test substructures.png

Bei liegt ein Strukturbruch vor, Regressionen auf den Teilintervallen und liefern eine bessere Modellierung als die Regression über dem Gesamtinterval (gestrichelt)

Vergleich zweier Programme (rot, grün) im selben Datensatz, separate Regressionen auf den zu einem Programm gehörigen Daten liefern eine bessere Modellierung als die Regression über den gesamten Datensatz (schwarz)

Vorgehen[Bearbeiten | Quelltext bearbeiten]

Gegeben ist ein Datensatz mit für , dessen Beziehung durch eine lineare Funktion mit einem normalverteilten Fehler () mit Erwartungswert 0 () beschrieben wird (multiple Regressionsanalyse), d.h. man hat

für .

Man vermutet jedoch, dass sich der Datensatz in zwei Gruppen der Größen und aufteilen lässt, die durch zwei unterschiedliche lineare Funktionen besser beschrieben werden.

für
für

Hierbei ist und es wird die Hypothese gegen getestet. Bezeichnet man die Summe der quadrierten Residuen der Regression über den gesamten Datensatz mit und über die beiden Teilgruppen mit und , dann folgt die unten definierte Testgröße einer F-Verteilung mit den Freiheitsgraden und .

Beispiel[Bearbeiten | Quelltext bearbeiten]

Gegeben ist der folgende Datensatz, dessen Beziehung durch die lineare Funktion modelliert werden soll:

0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 5,5 6,0
−0,043 0,435 0,149 0,252 0,571 0,555 0,678 3,119 2,715 3,671 3,928 3,962
Der Datenplot legt einen Strukturbruch bei nahe.

Ein Datenplot lässt vermuten, dass bei ein Strukturbruch vorliegt, daher teilt man den Datensatz in 2 Intervalle und ein und führt über diesen, zusätzlich zur Regression über den gesamten Datensatz, getrennte Regressionen durch. Dann testet man, ob die beiden Teilregressionen dieselbe lineare Funktion erzeugen, also gegen

Regression auf dem gesamten Datensatz:

Regression auf

Datenplot mit Regressionsgeraden.

Regression auf

Berechnung der Testgröße:

Wegen   (Signifikanzniveau ) gilt  . Somit kann die Nullhypothese verworfen werden. Das heißt, die beiden Regressionsgeraden auf den Teilintervallen sind nicht identisch. Es liegt also ein Strukturbruch vor und die Teilregressionen liefern eine bessere Modellierung als die Regression über den gesamten Datensatz.

Literatur[Bearbeiten | Quelltext bearbeiten]