Empirische Varianz

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Formelzeichen
Mittelwert der Grundgesamtheit
Varianz der Grundgesamtheit
Anzahl der gegebenen Werte
Zufallsvariablen (Zufallsgrößen)
Stichprobe: beobachtete Werte der Zufallsvariablen
Stichprobenmittel / empirischer Mittelwert von
Stichprobenvarianz / empirische Varianz von
Stichprobenmittel (als Funktion der Zufallsvariablen)
Stichprobenvarianz (als Funktion der Zufallsvariablen)

Die empirische Varianz[1][2], auch Stichprobenvarianz[2][3] (veraltet: empirisches Streuungsquadrat) oder einfach nur kurz Varianz genannt, ist eine statistische Angabe für die Streubreite von konkreten (empirisch erhobenen) Werten einer Stichprobe.

Bei der empirischen Varianz handelt sich um einen Begriff aus der beschreibenden (deskriptiven) Statistik für die Varianz. Sie gehört zu den Streuungsmaßen und beschreibt die mittlere quadratische Abweichung der einzelnen Werte vom empirischen Mittelwert. Sie entspricht damit dem "durchschnittlichen Abweichungsquadrat".

Die Wurzel der empirischen Varianz ist die empirische Standardabweichung[2]. Die empirische Standardabweichung stellt das gebräuchlichste Streuungsmaß dar. Sie ist anschaulicher als die Varianz, da sie dieselbe Größenordnung hat, wie die beobachteten Werte.

Die empirische Varianz ist jedoch in weitergehenden Berechnungen oft praktischer als die Standardabweichung: So können beispielsweise Varianzbeiträge von mehreren unabhängigen Zufallseinflüssen einfach addiert werden. Umgekehrt lässt sich durch eine Varianzanalyse eine Gesamtvarianz oft auch in ihre Beiträge (Ursachen) zerlegen.

Die Bezeichnung „Varianz“ leitet sich von lateinisch variantia = „Verschiedenheit“ bzw. variare = „(ver)ändern, verschieden sein“ ab.

Voraussetzungen[Bearbeiten | Quelltext bearbeiten]

Varianz der Grundgesamtheit[Bearbeiten | Quelltext bearbeiten]

Die Varianz einer endlichen Grundgesamtheit (Population) mit reellen Datenwerten ist ein Maß für die Streuung der einzelnen -Werte, um den Populationsmittelwert und ist definiert als

Der Populationsmittelwert ist das arithmetische Mittel der Datenwerte

.

Die Varianz der Grundgesamtheit ist in praktischen Situationen häufig unbekannt, beispielsweise, weil es nicht möglich ist, jedes einzelne Subjekt in der Population zu erfassen (Vollerhebung). Um die Varianz zu ermitteln, werden daher empirisch Stichproben erhoben. Das führt zu den Begriffen empirische Varianz oder auch Stichprobenvarianz.

Empirischer Mittelwert[Bearbeiten | Quelltext bearbeiten]

Gegeben sei eine Stichprobe mit reellen numerischen Werten . Es bezeichne

den empirischen Mittelwert der Stichprobe. Dieser empirische Mittelwert ist ein Schätzer für den Populationsmittelwert .

Berechnung der empirischen Varianz[Bearbeiten | Quelltext bearbeiten]

Zunächst werden die Abweichungen der beobachteten reellen Werte der Stichprobe von ihrem arithmetischen Mittel gebildet. Summierung und Quadrierung ergibt die sogenannte Abweichungsquadratsumme .

Die Verwendung der Abweichungsquadratsumme führt zu folgenden Eigenschaften der emprischen Varianz:

  • Positive und negative Abweichungen vom Mittelwert heben sich bei der Summierung nicht gegenseitig auf.
  • Die Varianz einer Stichprobe ist daher immer positiv (oder Null).
  • Eine größere Varianz entspricht einer größeren Unterschiedlichkeit der Werte.
  • Wenige aber starke Ausreißer haben einen großen Einfluss auf das Ergebnis.

Die empirische Varianz kann damit auf folgende Arten berechnet werden:

Am gebräuchlichsten ist die Berechnung der empirischen Varianz der Stichprobenwerte als Summe der Abweichungsquadrate geteilt durch die Anzahl der Freiheitsgrade :[3]

 
 
 (1)
 

Formel (1) wird auch korrigierte empirische Varianz oder korrigierte Stichprobenvarianz genannt[4][2]. Der Vorsatz "korrigierte ..." bezieht sich auf den Faktor , der auch als Bessel-Korrektur[5] bezeichnet wird. Die Korrektur führt dazu, dass ein erwartungstreuer Schätzer für die Populationsvarianz ist: Das bedeutet, dass der Schätzfehler immer kleiner wird und gegen Null strebt, wenn das Ergebnis der Varianzberechnung über eine steigende Anzahl verschiedener Stichproben gemittelt wird.

Alternativ wird die empirische Varianz (nicht erwartungstreu) berechnet als Summe der Abweichungsquadrate geteilt durch die Anzahl der Werte :[6]

 
 
 (2)
 

Für den Sonderfall, dass der Mittelwert der Grundgesamtheit bekannt ist, wird die Varianz mit folgender Formel berechnet, die ebenfalls einen erwartungstreuen Schätzer darstellt:[7]

 
 
 (3)
 

Weitere Erläuterung zu den Berechnungsarten

Intuitiv lässt sich die Mittelung durch in Formel (1) statt durch wie folgt erklären:

Bei Formel (1) geht es um die Schätzung der Varianz der Grundgesamtheit, aus der die Stichprobe entnommen wurde. Aufgrund der Schwerpunkteigenschaft des empirischen Mittels ist die letzte Abweichung bereits durch die ersten bestimmt. Folglich variieren nur Abweichungen frei. D.h. man mittelt deshalb, indem man durch die Anzahl der Freiheitsgrade dividiert. Besonders augenscheinlich wird das, wenn man den Fall betrachtet: Bei 2 Datenwerten gibt es nur 1 Unterschied zwischen den Daten. Und mit einer Stichprobe mit kann man gar keine Aussage über die Varianz einer Grundgesamtheit machen.

Diese Plausibilisierung wird im Rahmen der induktiven Statistik formalisiert.[8] (→ Stichprobenvarianz (Schätzfunktion))

Die Idee von Formel (2) ist eine andere: Hier geht es nicht um eine Aussage über eine "Grundgesamtheit" mit Hilfe einer Stichprobe, sondern darum, den Datensatz möglichst genau durch eine Normalverteilung zu beschreiben: D.h. die Parameter der Normalverteilung und werden so bestimmt, dass der quadratische Fehler der gegebenen Daten relativ zur Verteilungsfunktion der Normalverteilung minimal ist.[9] Das ist der Fall für und . Formel (2) liefert in diesem Sinne bessere Ergebnisse als Formel (1), und sie sollte angewendet werden, wenn diese Eigenschaft erforderlich ist.[10] Formel (2) ist aber kein erwartungstreuer Schätzer: D.h. wenn das Ergebnis über viele Stichproben gemittelt wird, dann strebt das Ergebnis nicht gegen den wahren Wert für die Varianz der Grundgesamtheit. Formel (2) liefert im Mittel zu kleine Ergebnisse und wird daher seltener angewendet. Es ist bemerkenswert, dass es umfangreiche mathematische und statistische Handbücher[11][12][13] gibt, die die Formel (2) nicht erwähnen.

Formel (2) wird in der mathematischen Statistik begründet, z. B. durch Anwendung der Maximum-Likelihood-Methode, oder der Momentenmethode.

Formel (3) und (1) unterscheiden sich darin, dass bei Formel (3) die Berechnung des arithmetischen Mittels entfällt, weil der Mittelwert der Grundgesamtheit bekannt ist. Auch diese Formel ist erwartungstreu im Sinne der schließenden Statistik. Da für Formel (3) kein arithmetisches Mittel berechnet wird geht kein Freiheitsgrad bei der Berechnung verloren und es wird nur durch n geteilt.

Formel (3) kann man ebenfalls plausibilisieren, wenn man den Fall betrachtet: Bei 2 Datenwerten gibt es 2 Unterschiede im Vergleich zum vorbekannten Mittelwert . Daher wird in diesem Fall durch 2 geteilt.

Im Falle einer Vollerhebung aller Daten der Population sind die Formeln (2) und (3) gleichwertig, da in diesem Fall der Populationsmittelwert bereits aus den vorliegenden Daten bekannt ist: .

Wird nur von „der“ empirischen Varianz gesprochen, so muss daher darauf geachtet werden, welche Konvention beziehungsweise Definition im entsprechenden Kontext gilt. Weder die Benennungen noch die entsprechende Notation ist in der Literatur einheitlich:

  • Der Begriff empirische Varianz wird von einigen Autoren nur für die unkorrigierte Varianz verwendet. Und der Begriff Stichprobenvarianz wird in diesem Fall nur für die korrigierte Varianz verwendet.[8]
  • wird auch als erwartungstreue Stichprobenvarianz (und als verzerrte Stichprobenvarianz) bezeichnet, weil ein erwartungstreuer Schätzer für die Varianz ist.[14]
  • wird manchmal auch als theoretische Varianz oder induktive Varianz bezeichnet.[15]
  • Statt wird manchmal auch oder verwendet.
  • wird manchmal als mittlere quadratische Abweichung vom empirischen Mittelwert bezeichnet[16]
  • Statt wird manchmal auch verwendet

Empirische Varianz für Häufigkeitsdaten[Bearbeiten | Quelltext bearbeiten]

In diesem Fall wird davon ausgegangen, dass die Stichprobenwerte nur konkrete Ausprägungen annehmen können. Das bedeutet: es bietet sich folgendes Vorgehen an:

  • Zuerst wird mit Hilfe einer größeren Stichprobe untersucht, wie häufig jede der Ausprägungen auftritt. Die Ergebnisse der Zählung sind die absolute Häufigkeiten der Ausprägungen, d. h. es die entsprechen der Anzahl des Auftretens von . Sie können in einer Häufigkeitstabelle zusammengefasst werden. Die Summe der ist gleich, wie die Anzahl der Stichprobenwerte .
  • Daraus werden die relativen Häufigkeiten (Wahrscheinlichkeiten für das Auftreten der jeweiligen Ausprägungen) berechnet.
  • Die Varianz ergibt sich schließlich aus den ermittelten Häufigkeitsdaten: den relativen Häufigkeiten der Ausprägungen und dem empirischen Mittelwert der Stichprobe.[8]
, mit
.

Empirische Varianz für Daten aus einer Zeitreihe[Bearbeiten | Quelltext bearbeiten]

In diesem Fall sind Datenwerte als Zeitreihe gegeben. Beispielsweise wird sekündlich ein Wert gemessen. ist ein Zähler für die aufgelaufenen Werte seit dem Beginn der Rechnung.

Zu jedem Zeitpunkt der Zeitreihe soll die Varianz aus den letzten Werten von bestimmt werden.

Die Rechnung soll in Echtzeit unmittelbar nach dem Eintreffen von jedem neuen Wert erfolgen. In Echtzeitsystemen wird stark auf die erforderliche Rechenzeit in jedem Zeitschritt geachtet. Mit Formeln (1) bis (3) würde die erforderliche Rechenzeit mit der Zeit steigen, da ja auch die Summen immer mehr Werte umfassen. Das wird vermieden mit folgenden rekursiven Formeln, die auf den Schätz-Ergebnissen für und zum vergangenen Zeitpunkt aufbauen, und die in jedem Zeitschritt ausgeführt werden:[17]

Diese Formeln benötigen Startwerte für den Zeitpunkt . Bei ungünstiger Wahl nähern sich die Schätzwerte langsam den wahren Werten an. Daher sind günstige Vorbelegungen:

  •  : Vorbelegung mit , oder dem ersten erhaltenen Messwert, oder einem vorab erwarteten Mittelwert
  •  : Vorbelegung mit , oder einem vorab erwarteten Varianzwert

Eigenschaften der empirischen Varianz[Bearbeiten | Quelltext bearbeiten]

Verhalten bei Transformationen[Bearbeiten | Quelltext bearbeiten]

Verschiebung der Daten um einen konstanten Wert c: Varianz ändert sich nicht

Also: Wenn , so gilt:

Begründung: Es ist und somit , woraus die Behauptung folgt.

Skalierung der Daten um einen Faktor , also : Varianz skaliert um den Faktor :

.
Begründung: Dies folgt wie oben durch direktes Nachrechnen.

Genauigkeit der berechneten empirischen Varianz[Bearbeiten | Quelltext bearbeiten]

Wenn man viele Stichproben nimmt, dann führt jede neue Stichprobe zu einer anderen Schätzung für die Varianz der Grundgesamtheit. D.h. die berechnete empirische Varianz (Stichprobenvarianz) hat ebenfalls eine Streuung. Diese Streuung ist ein Maß für die Qualität (Genauigkeit) der Varianzbestimmung. Für den Fall, dass die Streuung in einem gegebenen Anwendungsfall zu hoch ist, könnte man die Anzahl der Werte in der Stichprobe vergrößern oder den Mittelwert aus vielen verschiedenen Stichproben verwenden.

Die Streuung der Stichprobenvarianz kann durch die Berechnung der Grenzwerte des Konfidenzintervalles mit Hilfe der Chi-Quadrat-Verteilung beurteilt werden. Praktisch genügt jedoch häufig eine Abschätzung der Standardabweichung der Stichprobenvarianz mit folgenden Formeln[18] analog zu Formeln (1) und (3):

Standardabweichung der Stichprobenvarianz bei unbekanntem wahren Mittelwert der Gesamtheit:

Standardabweichung der Stichprobenvarianz bei bekanntem wahren Mittelwert der Gesamtheit:

Beispiel 1: Stichprobe mit Werten und der Varianz  :

Dann lässt sich die Standardabweichung der Stichprobenvarianz abschätzen als:

Die Standardabweichung von ist im Vergleich zur Stichprobenvarianz erheblich. D.h. eine Stichprobe mit ist in den meisten Anwendungsfällen nicht geeignet um eine ausreichend verlässliche Aussage über die Varianz der Grundgesamtheit zu machen.


Beispiel 2: Stichprobe wird vergrößert auf Werte:

Dann lässt sich die Streuung der Stichprobenvarianz wie oben ermitteln als:

Die Streuung von 0,14 ist bei der Stichprobenvarianz brauchbarer, als das Ergebnis im ersten Beispiel.

Im Falle einer Normalverteilung würde das bedeuten, dass der wahre Varianzwert mit 95 % Wahrscheinlichkeit im Bereich von liegt. Im Falle der Berechnung der Grenzwerte mit der Chi-Quadrat-Verteilung ergeben sich fast die gleichen Werte.

Man sieht, dass eine akkurate Berechnung der empirischen Varianz deutlich größere Stichproben erfordert, als man intuitiv vermuten würde.

Alternative Darstellungen[Bearbeiten | Quelltext bearbeiten]

Darstellung als durchschnittliches Abweichungsquadrat[Bearbeiten | Quelltext bearbeiten]

Die Varianz wird in der Varianzanalyse oft als „mittleres“ bzw. „durchschnittliches“ Abweichungsquadrat bezeichnet und ergibt sich dann aus die Division der Summe der Abweichungsquadrate SQ und der Anzahl Freiheitsgrade FG:[19]

.[20]

Bei einer mehrdimensionalen Varianzanalyse werden die mittleren Abweichungsquadrate der jeweiligen Variablen werden in einer sogenannten Varianzanalysetabelle zusammengefasst.

Darstellung mittels Verschiebungssatz[Bearbeiten | Quelltext bearbeiten]

Eine weitere Darstellung erhält man aus Anwendung des Verschiebungssatzes:[21]

Diese Formel ist jedoch aus numerischer Sicht nachteilig, da unter Umständen zwei sehr große Werte voneinander abgezogen werden. Das kann zur Rechenungenauigkeiten führen, wenn die Darstellungsgenauigkeit der Gleitkommazahlen im Rechner nicht ausreichend ist.

Darstellung als Doppelsumme (ohne vorausgehende Berechnung des empirisches Mittels)[Bearbeiten | Quelltext bearbeiten]

Eine Darstellung, die ohne die vorausgehende Berechnung des empirischen Mittels auskommt, ist:

Herleitung: Wenn man das arithmetische Mittel der Beobachtungswerte in den Summanden der Doppelsumme

addiert und abzieht (also Null einfügt), dann gilt

.

Dies ist äquivalent zu

.

Abgeleitete Begriffe[Bearbeiten | Quelltext bearbeiten]

Empirische Standardabweichung[Bearbeiten | Quelltext bearbeiten]

Als empirische Standardabweichung[1] auch Stichprobenstreuung[3] oder Stichprobenstandardabweichung[1] genannt, wird die Wurzel aus der empirischen Varianz gemäß Formel (1)-(3) bezeichnet:

Die empirische Standardabweichung ist ebenfalls ein Maß dafür, wie weit die Stichprobe im Schnitt um den empirischen Mittelwert streut.

Im Gegensatz zur empirischen Varianz besitzt die empirische Standardabweichung dieselben Einheiten wie der empirische Mittelwert oder die Stichprobe selbst. Wie auch bei der empirischen Varianz ist die Benennung und Bezeichnung bei der empirischen Standardabweichung nicht einheitlich. Die empirische Standardabweichung sollte von der Standardabweichung im Sinne der Wahrscheinlichkeitstheorie unterschieden werden. Diese ist eine Kennzahl einer Wahrscheinlichkeitsverteilung oder der Verteilung einer Zufallsvariable, wohingegen die empirische Standardabweichung Kennzahl einer Stichprobe ist.

Empirischer Variationskoeffizient[Bearbeiten | Quelltext bearbeiten]

Der empirische Variationskoeffizient ist ein dimensionsloses Streuungsmaß (nicht einheitenbehaftet) und drückt in Prozent des empirischen Mittelwerts aus.[22]

Annualisierte Varianz[Bearbeiten | Quelltext bearbeiten]

In der Finanzmarkttheorie werden oft Varianzen bzw. Volatilitäten von Renditen berechnet. Diese Varianzen müssen, wenn sie auf täglichen Daten beruhen annualisiert werden, d. h. auf ein Jahr hochgerechnet werden. Dies geschieht mittels eines Annualisierungfaktors (pro Jahr gibt es etwa Handelstage). Die Volatilität lässt sich somit schätzen als Wurzel aus der annualisierten Varianz

.

Beispiel[Bearbeiten | Quelltext bearbeiten]

Gegeben sei die Stichprobe

,

es ist also . Für den empirischen Mittelwert ergibt sich

.

Bei stückweiser Berechnung ergibt sich dann die Abweichungsquadratsumme

.

Mit Formel (1) erhält man

wohingegen Formel (2)

liefert.

Jetzt nehmen wir an, dass der Mittelwert der Grundgesamtheit, aus der die Stichprobe entnommen wurde, vorab bekannt sei:

Dann findet Formel (3) Anwendung:

.

Die entsprechenden empirischen Standardabweichungen ergeben sich zu:

Herkunft der verschiedenen Definitionen[Bearbeiten | Quelltext bearbeiten]

Die empirische Varianz, ist ein Streuungsmaß um den Mittelwert der Datenwerte. Die gegebenen Werte sind .

Bei der Verwendung der Varianz als Streuungsmaß wird die Quadratsumme als Ausgangspunkt verwendet:

Um das Streuungsmaß unabhängig von der Anzahl der Messwerte in der Stichprobe zu machen, wird als einfachste Lösung noch durch die Anzahl der Werte dividiert. Ergebnis dieses pragmatisch hergeleiteten Streuungsmaßes ist die mittlere quadratische Abweichung vom empirischen Mittelwert oder die oben definierte Varianz .

Die Definition von hat ihre Wurzeln in der Schätztheorie. (→ Stichprobenvarianz (Schätzfunktion))

Dort wird die Varianz der Grundgesamtheit geschätzt durch:

als erwartungstreue Schätzfunktion für die unbekannte Varianz einer Wahrscheinlichkeitsverteilung verwendet.

ergibt sich durch Anwendung der Schätzfunktion auf Realisierungen (konkrete Werte) der Zufallsvariablen .

Somit kann als ein praktisch motiviertes Streuungsmaß in der deskriptiven Statistik angesehen werden, wohingegen eine Schätzung für eine unbekannte Varianz in der induktiven Statistik ist. Diese unterschiedlichen Ursprünge rechtfertigen die von manchen Autoren verwendete Sprechweise für als empirische Varianz und für als induktive Varianz oder theoretische Varianz.

Zu bemerken ist, dass sich auch als Schätzwert einer Schätzfunktion interpretieren lässt. Diesen erhält man bei Anwendung der Maximum-Likelihood-Methode, oder der Momentenmethode als Schätzfunktion für die Varianz, die zwar nicht erwartungstreu ist, und daher nicht alle Qualitätskriterien für Punktschätzungen erfüllt, aber dafür die gegebenen Variablen optimal in eine Normalverteilung einpasst. Der Parameter der Normalverteilung wird bestimmt durch:

.

Der Unterschied zwischen beiden Formeln lässt sich in der mathematischen Statistik dadurch erklären, dass das Quadrat einer (symmetrischen) normalverteilten Zufallsgröße nicht ebenfalls normalverteilt ist, sondern eine (unsymmetrische) Chi-Quadrat-Verteilung aufweist.

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Behrends 2013 – Ehrhard Behrends: Elementare Stochastik. Ein Lernbuch – von Studierenden mitentwickelt. Springer Spektrum, Wiesbaden 2013, ISBN 978-3-8348-1939-0.
  • Beyer 1988 – Otfried Beyer, Horst Hackel, Volkmar Pieper, Jürgen Tiedge: Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. B. G. Teubner, Leipzig 1988, ISBN 3-322-00469-4.
  • Bronstein 2020 – I. N. Bronstein, K. A. Semendjajew, G. Musiol, H. Mühlig: Taschenbuch der Mathematik. 11. Auflage. Verlag Europa-Lehrmittel Nourney, Vollmer GmbH & Co. KG, Haan-Gruiten 2020, ISBN 978-3-8085-5792-1.
  • Cleff 2015 – Thomas Cleff: Deskriptive Statistik und Explorative Datenanalyse. Eine computergestützte Einführung mit Excel, SPSS und STATA. 3. Auflage. Springer Gabler, Wiesbaden 2015, ISBN 978-3-8349-4747-5.
  • Duden 2020 – Harald Scheid: Duden: Rechnen und Mathematik. 6. Auflage. Bibliographisches Institut & F.A. Brockhaus AG, Mannheim 2020, ISBN 978-3-411-05346-9.
  • Fahrmeir 2016 – Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8. Auflage. Springer Verlag, Berlin / Heidelberg 2016, ISBN 978-3-662-50371-3.
  • Hartung 2005 – Joachim Hartung, Bärbel Elpelt, Karl-Heinz Klösener: Statistik. Lehr- und Handbuch der angewandten Statistik. 14. Auflage. R. Oldenbourg Verlag, München / Wien 2005, ISBN 3-486-57890-1.
  • Henze 2013 – Norbert Henze: Stochastik für Einsteiger. Eine Einführung in die faszinierende Welt des Zufalls. 10. Auflage. Springer Spektrum, Wiesbaden 2013, ISBN 978-3-658-03076-6.
  • Kabluchko 2017 – Zakhar Kabluchko: Mathematische Statistik - Skript zur Vorlesung. Münster 2017 (uni-muenster.de [PDF; abgerufen am 1. Februar 2022]).
  • Kosfeld 2016 – Reinhold Kosfeld, Hans Friedrich Eckey, Matthias Türck: Deskriptive Statistik. Grundlagen – Methoden – Beispiele – Aufgaben. 6. Auflage. Springer Gabler, Wiesbaden 2016, ISBN 978-3-658-13639-0.
  • Toutenburg 2008 – Helge Toutenburg, Christian Heumann: Deskriptive Statistik. 8. Auflage. Springer-Verlag, Berlin/Heidelberg 2008, ISBN 978-3-540-77787-8.
  • Young 2011 – Peter C. Young: Recursive Estimation and Time-Series-Analysis. 2. Auflage. Springer-Verlag, Berlin / Heidelberg 2011, ISBN 978-3-642-21980-1.

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. a b c Henze 2013: S. 31ff
  2. a b c d Kabluchko 2017, Kapitel 1.4: Empirische Varianz
  3. a b c Behrends 2013: S. 274f
  4. Beyer 1988
  5. Kabluchko 2017, Kapitel 1.4: Empirische Varianz
  6. Cleff 2015: S. 56
  7. Hartung 2005: S. 153f
  8. a b c Fahrmeir 2016: Kapitel 2.2.3 Standardabweichung, Varianz und Variationskoeffizient
  9. Kunyu He: Statistics in ML: Why Sample Variance Divided by n Is Still a Good Estimator. 18. Mai 2020, abgerufen am 9. Mai 2022 (englisch).
  10. FernUni Hagen 2020: Empirische vs Stichprobenvarianz. In: YouTube. FernUni Hagen: https://www.statstutor.de/, 19. April 2020, abgerufen am 1. Februar 2022.
  11. Bronstein 2020
  12. Hartung 2005
  13. Duden 2020: Varianz
  14. Kapitel 10: Erwartungstreue Schätzer (PDF-Datei), www.alt.mathematik.uni-mainz.de, abgerufen am 31. Dezember 2018
  15. Cleff 2015: S. 255
  16. Toutenburg 2008: S. 75
  17. Young 2011 - Chapter 2: Recursive Estimation, Seite 19
  18. HU-Berlin 2018: Verteilung der Stichprobenvarianz, Kapitel 1.2, abgerufen am 1. Februar 2022.
  19. Werner Timischl: Angewandte Statistik. Eine Einführung für Biologen und Mediziner. 2013, 3. Auflage, S. 109.
  20. Lothar Sachs: Statistische Auswertungsmethoden, S. 400.
  21. Kosfeld 2016
  22. Beyer 1988: Kapitel 3.1.1.3. Statistische Maßzahlen, S. 120