Boxscher M-Test

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Der Boxsche M-Test ist ein Verfahren aus der mathematischen Statistik. Er wurde 1949 von G. E. P. Box entwickelt[1] und ist eine Erweiterung des Bartlett-Tests auf Gleichheit der Varianzen für den multivariaten Fall. Er wird in den multivariaten Verfahren angewendet, beispielsweise bei der Diskriminanzanalyse zum Test auf Gleichheit von Streuungen in den Gruppen.

Vorausgesetzt wird, dass die -dimensionalen Daten in den Gruppen multivariat normalverteilt sind: mit Erwartungswertvektoren und Kovarianzmatrizen verteilt ().

Die Hypothese soll geprüft werden, dass alle Kovarianzmatrizen gleich sind, also

vs. es gibt min. ein Paar und mit .

Die Prüfgröße für den Test ist das so genannte M von Box,

wobei

als Korrektur dient. Die Kovarianzmatrix wird aus den Beobachtungen, die zur Gruppe gehören, geschätzt

und die gepoolte, also mittlere, Kovarianzmatrix durch

Bei jeweils genügend großem ist die Prüfgröße annähernd Chi-Quadrat-verteilt mit Freiheitsgraden. Wenn die sich insgesamt sehr von unterscheiden, wird der Wert der Prüfgröße hoch. wird also beim Signifikanzniveau abgelehnt, wenn M größer ist als das -Quantil der Chi-Quadrat-Verteilung mit Freiheitsgraden.

Der Test reagiert sensitiv auf Verletzungen der Voraussetzung der mehrdimensionalen Normalverteilung.

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Box, G. E. P. (1949). A general distribution theory for a class of likelihood criteria. Biometrika, 36, 317–346, doi:10.1093/biomet/36.3-4.317, JSTOR:2332671.