Varianzaufklärung

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

In der Statistik ist Varianzaufklärung ein Maß dafür, inwieweit ein mathematisches Modell die Streuung (Varianz) eines empirischen Datensatzes erklären kann.

In der linearen Regression wird der Pearsonsche Korrelationskoeffizient R^2 anschaulich als Varianzaufklärung bezeichnet.

In der Hauptkomponenten- und Faktorenanalyse kann man jeder Komponente / jedem Faktor seinen Beitrag zur Aufklärung der gesamten Varianz zuordnen.

Kent (1983) hat eine allgemeine Definition der Varianzaufklärung gegeben, die auf dem Informationsmaß von Fraser (1965) aufbaut.

Kritik[Bearbeiten]

Der Begriff "Varianzaufklärung" wird leicht missverstanden, weil er das Subjekt unspezifiziert lässt: wer oder was klärt auf? Antwort: nicht allein das mathematische Modell, sondern das mathematische Modell in Verbindung mit einem spezifischen Satz von Inputvariablen. Die Varianzaufklärung ist nicht geeignet, die Gültigkeit von Modellen mit verschiedenen Inputdaten zu vergleichen und sie ist kein geeignetes Maß für die Stärke eines linearen Zusammenhangs (King 1990, Achen 1990).

Literatur[Bearbeiten]

  • J. T. Kent: Information gain and a general measure of correlation. in: Biometrika. London 70.1983,1, 163-173. ISSN 0006-3444
  • D. A. S. Fraser: On Information in Statistics. in: Annals of the Institute of Statistical Mathematics (AISM). Berlin 36.1965,3, 890-896. ISSN 0020-3157
  • C. H. Achen: What Does "Explained Variance" Explain? Reply. in: Political Analysis. Oxford 2.1990,1, 173-184. ISSN 1047-1987
  • G. King: Stochastic Variation. A Comment ... in: Political Analysis. Oxford 2.1990,1, 185-200. ISSN 1047-1987