Boxscher M-Test

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 22. September 2016 um 13:11 Uhr durch NikelsenH (Diskussion | Beiträge) (linkfix). Sie kann sich erheblich von der aktuellen Version unterscheiden.
Zur Navigation springen Zur Suche springen

Der Boxsche M-Test ist ein Verfahren aus der mathematischen Statistik. Er wurde 1949 von G. E. P. Box entwickelt[1] und ist eine Erweiterung des Bartlett-Tests auf Gleichheit der Varianzen für den multivariaten Fall. Er wird in den multivariaten Verfahren angewendet, beispielsweise bei der Diskriminanzanalyse zum Test auf Gleichheit von Streuungen in den Gruppen.

Vorausgesetzt wird, dass die -dimensionalen Daten in den Gruppen multivariat normalverteilt sind: mit Erwartungswertvektoren und Kovarianzmatrizen verteilt ().

Die Hypothese soll geprüft werden, dass alle Kovarianzmatrizen gleich sind, also

vs. es gibt min. ein Paar und mit .

Die Prüfgröße für den Test ist das so genannte M von Box,

wobei

als Korrektur dient. Die Kovarianzmatrix wird aus den Beobachtungen, die zur Gruppe gehören, geschätzt

und die gepoolte, also mittlere, Kovarianzmatrix durch

Bei jeweils genügend großem nk ist die Prüfgröße annähernd χ2-verteilt mit m(m+1)(p-1)/2 Freiheitsgraden. Wenn die sich insgesamt sehr von unterscheiden, wird der Wert der Prüfgröße hoch. wird also beim Signifikanzniveau α abgelehnt, wenn M größer ist als das 1-α-Quantil der χ2-Verteilung mit m(m+1)(p-1)/2 Freiheitsgraden.

Der Test reagiert sensitiv auf Verletzungen der Voraussetzung der multivariaten Normalverteilung.

Einzelnachweise

  1. Box, G. E. P. (1949). A general distribution theory for a class of likelihood criteria. Biometrika, 36, 317–346.