Varianz

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Standardabweichung)
Zur Navigation springen Zur Suche springen
Formelzeichen
Mittelwert der Grundgesamtheit
Varianz der Grundgesamtheit
Anzahl der gegebenen Werte
Zufallsvariablen (Zufallsgrößen)
Stichprobe: beobachtete Werte der Zufallsvariablen
Stichprobenmittel / empirischer Mittelwert von
Stichprobenvarianz / empirische Varianz von
Stichprobenmittel (als Funktion der Zufallsvariablen)
Stichprobenvarianz (als Funktion der Zufallsvariablen)
Erwartungswert: Mittelwert, der sich aus der Verteilungsfunktion von X ergibt
Varianz (Stochastik): Varianz, die sich aus der Verteilungsfunktion von X ergibt

Die Varianz ist in der beschreibenden Statistik ein Maß für die Streuung von einer endlichen Anzahl von reellen Werten um ihren Mittelwert.[1][2][3] Die Maßzahl kann auch als mittleres Abweichungsquadrat der Werte interpretiert werden. Sie wird in der beschreibenden Statistik auch als empirische („aus konkreten Daten berechnete“) Varianz bezeichnet. (→ Empirische Varianz). Die konkreten Daten ergeben sich häufig als Stichprobe aus einer Gesamtheit aller Daten (Population, Grundgesamtheit). Das führt zur alternativen Bezeichnung als Stichprobenvarianz.

Die Quadrierung der Abweichungen vom Mittelwert bewirkt bei einer endlichen Anzahl reeller Stichprobenwerte:

  • Positive und negative Abweichungen vom Mittelwert heben sich nicht gegenseitig auf.
  • Die Varianz einer Stichprobe ist immer positiv (oder Null).
  • Eine größere Varianz entspricht einer größeren Unterschiedlichkeit der Werte.
  • Wenige aber starke Ausreißer haben einen großen Einfluss auf das Ergebnis.

Die Varianz wird in der Stochastik (→ Varianz (Stochastik)) mathematisch allgemeiner behandelt. D.h. die empirische Varianz ist nur ein Spezialfall: Die Varianz basiert in der mathematischen Statistik auf Zufallsvariablen, also auf Funktionen, die dem Ergebnis eines Zufallsexperiments eine Größe zuordnen. Die Zufallsvariablen sind nicht begrenzt auf reelle Werte und die Anzahl der Werte zur Berechnung der Varianz kann auch unendlich sein. In der mathematischen Statistik ist die Varianz die erwartete quadratische Abweichung von Zufallsvariablen von ihrem Erwartungswert.[4][5][6] Sie wird daher zur Abgrenzung auch als theoretische Varianz bezeichnet.

Durch die Verallgemeinerung können besondere Fälle auftreten:

  • Es gibt Zufallsvariablen, die auf Wahrscheinlichkeitsverteilungen basieren, für die die Varianz nicht definiert ist (z.B. Cauchy-Verteilung).
  • Eine Varianz von Null zeigt nicht unbedingt an, dass alle Zufallsvariablen identische Werte haben.

Die Varianz wird in der Stochastik aus der Verteilung der Zufallsvariablen oder mit Hilfe von Schätzfunktionen bestimmt (→ Stichprobenvarianz (Schätzfunktion)).

Die Quadratwurzel aus der Varianz ist die Standardabweichung. Die Standardabweichung gehört ebenfalls zu den Streuungsmaßen. Die Varianz ist in weitergehenden Berechnungen oft praktischer als die Standardabweichung: So können beispielsweise Varianzbeiträge von mehreren unabhängigen Zufallseinflüssen einfach addiert werden. Umgekehrt lässt sich durch eine Varianzanalyse eine Gesamtvarianz oft auch in ihre Beiträge (Ursachen) zerlegen. Dennoch ist die Standardabweichung oft anschaulicher als die Varianz, da sie dieselbe Größenordnung hat wie die beobachteten Werte.

Die Bezeichnung „Varianz“ leitet sich von lateinisch variantia = „Verschiedenheit“ bzw. variare = „(ver)ändern, verschieden sein“ ab.

Empirische Varianz[Bearbeiten | Quelltext bearbeiten]

Ausgangspunkt ist eine Stichprobe mit reellen Werten, die aus einer Grundgesamtheit ausgewählt (empirisch erhoben) wurden. Wir sprechen daher im Folgenden auch von der "Stichprobenvarianz". Im Grenzfall umfasst die Stichprobe die gesamte Grundgesamtheit.

Die empirische Varianz ist ein Spezialfall der Varianz in der mathematischen Statistik.

Stichprobe ist ein Teil einer Grundgesamtheit[Bearbeiten | Quelltext bearbeiten]

Zur Ermittlung der Stichprobenvarianz werden zunächst die Abweichungen der beobachteten reellen Werte der Stichprobe von ihrem arithmetischen Mittel gebildet. Summierung ergibt die sogenannte Abweichungsquadratsumme .

Wenn die Abweichungsquadratsumme durch dividiert wird, erhält man das mittlere Abweichungsquadrat, bzw. die korrigierte Stichprobenvarianz oder korrigierte empirische Varianz:

 
 
 (1)
 

Falls keine Verwechslungsgefahr mit Formel (2) besteht, wird oft auch nur die kürzere Bezeichnung Stichprobenvarianz oder empirische Varianz verwendet[7][8] . Der Vorsatz "korrigierte ..." in der ausführlichen Bezeichnung bezieht sich auf den Faktor , der auch als Bessel-Korrektur[8] bezeichnet wird.

Die Idee dieser Formel (1) ist es, eine Aussage über die erwartete Varianz der Gesamtheit aller Daten zu machen. D.h. die Stichprobe wird verwendet, um die Varianz der Grundgesamtheit zu schätzen. Formel (1) stellt einen erwartungstreuen Schätzer dar. Das bedeutet in diesem Fall, dass der Schätzfehler immer kleiner wird und gegen Null strebt, wenn das Ergebnis über eine steigende Anzahl von Stichproben gemittelt wird. Diese Eigenschaft von Formel (1) lässt sich in der mathematischen Statistik beweisen.

Wenn die Abweichungsquadratsumme nur durch dividiert wird erhält man die unkorrigierte Stichprobenvarianz

 
 
 (2)
 

Die Idee dieser Formel (2) ist es, den Datensatz möglichst genau durch eine Normalverteilung zu beschreiben: D.h. die Parameter der Normalverteilung und werden so bestimmt, dass der quadratische Fehler der gegebenen Daten relativ zur Verteilungsfunktion der Normalverteilung minimal ist.[9] Das ist der Fall für und . Formel (2) liefert in diesem Sinne bessere Ergebnisse als Formel (1). Allerdings ist Formel (2) kein erwartungstreuer Schätzer: D.h. wenn das Ergebnis über viele Stichproben gemittelt wird, dann strebt das Ergebnis nicht gegen den wahren Wert für die Varianz der Grundgesamtheit. Formel (2) liefert im Mittel zu kleine Ergebnisse und wird daher seltener angewendet. Formel (2) wird in der mathematischen Statistik begründet, z.B. durch Anwendung der Maximum-Likelihood-Methode, oder der Momentenmethode.

Für den Sonderfall, dass der Mittelwert der Grundgesamtheit bekannt ist, wird die Varianz mit folgender Formel berechnet:

 
 
 (3)
 

Formel (3) und (1) unterscheiden sich darin, dass bei Formel (3) die Berechnung des arithmetischen Mittels entfällt, weil der Mittelwert der Grundgesamtheit bekannt ist. Auch diese Formel ist erwartungstreu im Sinne der mathematischen Statistik.

Die Verwendung und Abgrenzung der Bezeichnungen „Stichprobenvarianz“ und „empirische Varianz“ ist in der Literatur nicht einheitlich: Einige Autoren[10] bezeichnen Formel (1) als Stichprobenvarianz und Formel (2) als empirische Varianz.

Stichprobe beinhaltet alle Werte der Grundgesamtheit[Bearbeiten | Quelltext bearbeiten]

Für den Sonderfall, dass die Stichprobe alle Werte der Grundgesamtheit beinhaltet (), nennt man sie auch Vollerhebung. Der wahre Mittelwert der Grundgesamtheit fällt mit dem arithmetischen Mittel zusammen () und berechnet sich aus allen Elementen der Grundgesamtheit als

 
 
 (4)
 

Als Konsequenz fallen auch und zusammen. Die Varianz der Grundgesamtheit (auch Populationsvarianz genannt) ist dann gleich wie die Stichprobenvarianz und wird berechnet durch

 
 
 (5)
 

Varianz in der mathematischen Statistik[Bearbeiten | Quelltext bearbeiten]

Die Varianz ist mathematisch allgemein folgendermaßen definiert:

Sei ein Wahrscheinlichkeitsraum und eine Zufallsvariable auf eine Menge , mit der Ergebnismenge , dem Ereignissystem und dem Wahrscheinlichkeitsmaß . Mit bezeichnen wir den Erwartungswert der Zufallsvariable, so fern dieser existiert. Die Varianz ist dann definiert als erwartete mittlere quadratische Abweichung der Zufallsvariable von ihrem Erwartungswert:

 
 
 (6)
 

Berechnung basierend auf der Wahrscheinlichkeitsverteilung[Bearbeiten | Quelltext bearbeiten]

Nicht jede Wahrscheinlichkeitsverteilung besitzt einen Erwartungswert und eine Varianz (z.B. Cauchy-Verteilung). Und damit ist nicht für jede Zufallsvariable die Varianz definiert.

Es wird unterschieden zwischen stetigen und diskreten Zufallsvariablen:

Stetige Zufallsvariablen[Bearbeiten | Quelltext bearbeiten]

Falls die stetige Zufallsvariable auf einer Menge eine Wahrscheinlichkeitsdichtefunktion besitzt, dann lässt sich der Erwartungswert und die Varianz wie folgt berechnen:[11]

 
 
 (7)
 
 
 
 (8)
 

Diskrete Zufallsvariablen[Bearbeiten | Quelltext bearbeiten]

Sei eine diskrete Zufallsvariable auf einer Menge mit Wahrscheinlichkeitsfunktion . Dann lässt sich der Erwartungswert und die Varianz wie folgt berechnen:

 
 
 (9)
 
 
 
 (10)
 

Berechnung basierend auf Stichprobenvariablen[Bearbeiten | Quelltext bearbeiten]

Für diesen Fall werden in Formel (1)-(3) die Stichprobenwerte durch die Stichprobenvariablen ersetzt. Die Stichprobenvariablen sind keine reellen Werte, sondern sie sind Zufallsvariablen: Jede Zufallsvariable beschreibt die Wahrscheinlichkeit, mit der mögliche Beobachtungswerte auftreten.

Dies führt zur mathematisch allgemeineren Darstellung der Varianz als Funktion (genauer Stichprobenfunktion) von verschiedenen Zufallsvariablen. Auch hier unterscheidet man die korrigierte Stichprobenvarianz

 
 
 (11)
 

und die unkorrigierten Stichprobenvarianzen

 
 
 (12)
 
 
 
 (13)
 

Die Formeln (1)-(3) sind mathematisch gesehen ein Spezialfall der Formeln (11)–(13). Z.B. ist die empirische Varianz in der beschreibenden Statistik der zur abstrakten Schätzfunktion zugehörige Schätzwert.

In den Verfahren der mathematischen Statistik (Statistische Tests, Konfidenzintervalle etc.) fließt oft der Mittelwert oder die Varianz der Grundgesamtheit ein. In der Praxis sind Mittelwert und Varianz der Grundgesamtheit jedoch unbekannt, so dass sie geschätzt werden müssen. Die Formeln (11)–(13) dienen in der mathematischen Statistik also als Schätzfunktion, um die unbekannte Varianz einer Zufallsvariable mit unbekannter Verteilung zu schätzen.

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Beyer 1988 – Otfried Beyer, Horst Hackel, Volkmar Pieper, Jürgen Tiedge: Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. B. G. Teubner, Leipzig 1988, ISBN 3-322-00469-4.
  • Bronstein 2020 – I. N. Bronstein, K. A. Semendjajew, G. Musiol, H. Mühlig: Taschenbuch der Mathematik. 11. Auflage. Verlag Europa-Lehrmittel Nourney, Vollmer GmbH & Co. KG, Haan-Gruiten 2020, ISBN 978-3-8085-5792-1.
  • Duden 2020 – Harald Scheid: Duden: Rechnen und Mathematik. 6. Auflage. Bibliographisches Institut & F.A. Brockhaus AG, Mannheim 2020, ISBN 978-3-411-05346-9.
  • Fahrmeir 2016 – Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8. Auflage. Springer Verlag, Berlin / Heidelberg 2016, ISBN 978-3-662-50371-3.
  • Hartung 2005 – Joachim Hartung, Bärbel Elpelt, Karl-Heinz Klösener: Statistik. Lehr- und Handbuch der angewandten Statistik. 14. Auflage. R. Oldenbourg Verlag, München / Wien 2005, ISBN 3-486-57890-1.
  • Kabluchko 2017 – Zakhar Kabluchko: Mathematische Statistik - Skript zur Vorlesung. Münster 2017 (uni-muenster.de [PDF; abgerufen am 1. Februar 2022]).

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Bronstein 2020, Kapitel 16.3.2: Beschreibende Statistik
  2. Fahrmeir 2016, Kapitel 2: Univariate Deskription und Exploration von Daten
  3. Hartung 2005, Kapitel I: Deskriptive Statistik
  4. Bronstein 2020, Kapitel 16.3.1.2: Stichprobenfunktionen
  5. Fahrmeir 2016, Kapitel 5: Diskrete Zufallsvariablen und Kapitel 6: Stetige Zufallsvariablen
  6. Hartung 2005, Kapitel II: Wahrscheinlichkeitsrechnung
  7. Beyer 1988
  8. a b Kabluchko 2017, Kapitel 1.4: Empirische Varianz
  9. Kunyu He: Statistics in ML: Why Sample Variance Divided by n Is Still a Good Estimator. 18. Mai 2020, abgerufen am 9. Mai 2022 (englisch).
  10. Fahrmeir 2016, S. 65
  11. Bronstein 2020: Kapitel 16.2.2.3 Erwartungswert und Streuung, S. 827, Formel 16.52.