Dieser Artikel behandelt den theoretischen Varianzbegriff. Zur empirischen Varianz siehe
Stichprobenvarianz .
Dichten zweier normalverteilter Zufallsvariablen mit gleichem Erwartungswert aber unterschiedlichen Varianzen. Die rote Kurve hat eine geringere Varianz (entsprechend der Breite) als die grüne. Die Quadratwurzel der Varianz, die Standardabweichung, kann bei der Normalverteilung an den Wendepunkten ersehen werden.
In der Stochastik ist die Varianz eine wichtige Kenngröße der Wahrscheinlichkeitsverteilung einer reellen Zufallsvariablen . Sie beschreibt die erwartete quadratische Abweichung der Zufallsvariablen von ihrem Erwartungswert . Damit stellt die Varianz das zweite zentrale Moment der Zufallsvariablen dar. Die Quadratwurzel der Varianz wird Standardabweichung der Zufallsvariablen genannt.
Die Varianz ist translationsinvariant und eine homogene Funktion zweiten Grades. Die Varianz einer Summe unkorrelierter Zufallsvariablen ist gleich der Summe ihrer Varianzen. Ein wichtiges Hilfsmittel zur Berechnung der Varianz stellt der Verschiebungssatz dar. Die Varianz kann mit einem Varianzschätzer , etwa ihrer empirischen Entsprechung, der Stichprobenvarianz , geschätzt werden.
Definition
Es sei
X
{\displaystyle X}
eine reelle Zufallsvariable , die integrierbar ist, das heißt, es gilt
E
(
|
X
|
)
<
∞
{\displaystyle \operatorname {E} (|X|)<\infty }
. Dann existiert ihr Erwartungswert
μ
=
E
(
X
)
{\displaystyle \mu =\operatorname {E} (X)}
, und man definiert die Varianz von
X
{\displaystyle X}
wie folgt:
Var
(
X
)
:=
E
(
(
X
−
μ
)
2
)
.
{\displaystyle \operatorname {Var} (X):=\operatorname {E} \left((X-\mu )^{2}\right).}
Ist
X
{\displaystyle X}
quadratisch integrierbar, gilt also
E
(
|
X
|
2
)
<
∞
{\displaystyle \operatorname {E} (|X|^{2})<\infty }
, so ist die Varianz endlich.
Die Varianz wird auch als
V
(
X
)
{\displaystyle \operatorname {V} (X)}
,
σ
X
2
{\displaystyle \sigma _{X}^{2}}
oder einfach als
σ
2
{\displaystyle \sigma ^{2}}
notiert.
Berechnung bei diskreten Zufallsvariablen
Eine reelle Zufallsvariable mit einem endlichen oder abzählbar unendlichen Wertebereich
A
{\displaystyle A}
wird diskret genannt. Ihre Varianz berechnet sich dann als
Var
(
X
)
=
∑
x
∈
A
(
x
−
μ
)
2
P
(
X
=
x
)
.
{\displaystyle \operatorname {Var} (X)=\sum _{x\in A}(x-\mu )^{2}P(X=x).}
Hierbei ist
P
(
X
=
x
)
{\displaystyle P(X=x)}
die Wahrscheinlichkeit, dass
X
{\displaystyle X}
den Wert
x
{\displaystyle x}
annimmt, und
μ
=
∑
x
∈
A
x
P
(
X
=
x
)
{\displaystyle \mu =\sum _{x\in A}xP(X=x)}
der Erwartungswert von
X
{\displaystyle X}
. Die Summen erstrecken sich jeweils über alle Werte, die die Zufallsvariable
X
{\displaystyle X}
annehmen kann.
Berechnung bei stetigen Zufallsvariablen
Wenn eine Zufallsvariable
X
{\displaystyle X}
eine Wahrscheinlichkeitsdichtefunktion
f
(
x
)
{\displaystyle f(x)}
hat, gilt
Var
(
X
)
=
∫
−
∞
∞
(
x
−
μ
)
2
f
(
x
)
d
x
,
{\displaystyle \operatorname {Var} (X)\ =\int _{-\infty }^{\infty }(x-\mu )^{2}f(x)\,\mathrm {d} x,}
wobei
μ
=
∫
−
∞
∞
x
f
(
x
)
d
x
.
{\displaystyle \mu \ =\int _{-\infty }^{\infty }xf(x)\,\mathrm {d} x.}
Rechenregeln
Verschiebungssatz
Varianzen lassen sich oft einfacher mit Hilfe des Verschiebungssatzes
Var
(
X
)
=
E
(
(
X
−
E
(
X
)
)
2
)
=
E
(
X
2
)
−
(
E
(
X
)
)
2
{\displaystyle \operatorname {Var} (X)=\operatorname {E} \left(\left(X-\operatorname {E} (X)\right)^{2}\right)=\operatorname {E} \left(X^{2}\right)-\left(\operatorname {E} (X)\right)^{2}}
berechnen, da hierzu außer dem Erwartungswert von
X
{\displaystyle X}
nur noch der Erwartungswert von
X
2
{\displaystyle X^{2}}
bestimmt werden muss.
Diskret bedeutet das:
Var
(
X
)
=
(
∑
x
∈
A
x
2
P
(
X
=
x
)
)
−
(
∑
x
∈
A
x
P
(
X
=
x
)
)
2
{\displaystyle \operatorname {Var} (X)=\left(\sum _{x\in A}x^{2}P(X=x)\right)-\left(\sum _{x\in A}xP(X=x)\right)^{2}}
Am Computer ist diese Art der Berechnung aber zu vermeiden, da es bei der Verwendung von Fließkommazahlen leicht zu katastrophaler Auslöschung
kommen kann.
Lineare Transformation
Für reelle Zahlen
a
{\displaystyle a}
und
b
{\displaystyle b}
gilt
Var
(
a
X
+
b
)
=
a
2
Var
(
X
)
.
{\displaystyle \operatorname {Var} (aX+b)=a^{2}\operatorname {Var} (X).}
Dies kann mittels des Verschiebungssatzes hergeleitet werden:
Var
(
a
X
+
b
)
=
E
[
(
a
X
+
b
−
E
(
a
X
+
b
)
)
2
]
=
E
[
(
a
X
+
b
−
b
−
a
E
(
X
)
)
2
]
=
E
[
a
2
(
X
−
E
(
X
)
)
2
]
=
a
2
E
[
(
X
−
E
(
X
)
)
2
]
=
a
2
Var
(
X
)
{\displaystyle {\begin{aligned}\operatorname {Var} (aX+b)&=\operatorname {E} [(aX+b-\operatorname {E} (aX+b))^{2}]\\&=\operatorname {E} [(aX+b-b-a\operatorname {E} (X))^{2}]\\&=\operatorname {E} [a^{2}(X-\operatorname {E} (X))^{2}]\\&=a^{2}\operatorname {E} [(X-\operatorname {E} (X))^{2}]\\&=a^{2}\operatorname {Var} (X)\end{aligned}}}
Insbesondere für
a
=
−
1
{\displaystyle a=-1}
und
b
=
0
{\displaystyle b=0}
folgt
Var
(
−
X
)
=
Var
(
X
)
.
{\displaystyle \operatorname {Var} (-X)=\operatorname {Var} (X).}
Varianz von Summen von Zufallsvariablen
Für die Varianz einer beliebigen Summe von Zufallsvariablen
X
1
,
…
,
X
n
{\displaystyle X_{1},\dots ,X_{n}}
gilt allgemein
Var
(
∑
i
=
1
n
X
i
)
=
∑
i
,
j
=
1
n
Cov
(
X
i
,
X
j
)
=
∑
i
=
1
n
Var
(
X
i
)
+
∑
i
≠
j
Cov
(
X
i
,
X
j
)
=
∑
i
=
1
n
Var
(
X
i
)
+
2
∑
i
=
1
n
−
1
∑
j
=
i
+
1
n
Cov
(
X
i
,
X
j
)
.
{\displaystyle \operatorname {Var} \left(\sum _{i=1}^{n}X_{i}\right)=\sum _{i,j=1}^{n}\operatorname {Cov} (X_{i},X_{j})=\sum _{i=1}^{n}\operatorname {Var} (X_{i})+\sum _{i\neq j}\operatorname {Cov} (X_{i},X_{j})=\sum _{i=1}^{n}\operatorname {Var} (X_{i})+2\sum _{i=1}^{n-1}\sum _{j=i+1}^{n}\operatorname {Cov} (X_{i},X_{j}).}
Hierin bezeichnet
Cov
(
X
i
,
X
j
)
{\displaystyle \operatorname {Cov} (X_{i},X_{j})}
die Kovarianz der Zufallsvariablen
X
i
{\displaystyle X_{i}}
und
X
j
{\displaystyle X_{j}}
und es wurde verwendet, dass
Cov
(
X
i
,
X
i
)
=
Var
(
X
i
)
{\displaystyle \operatorname {Cov} (X_{i},X_{i})=\operatorname {Var} (X_{i})}
gilt. Speziell für zwei Zufallsvariablen
X
{\displaystyle X}
und
Y
{\displaystyle Y}
ergibt sich beispielsweise
Var
(
X
+
Y
)
=
Var
(
X
)
+
Var
(
Y
)
+
2
Cov
(
X
,
Y
)
.
{\displaystyle \operatorname {Var} (X+Y)=\operatorname {Var} (X)+\operatorname {Var} (Y)+2\operatorname {Cov} (X,Y).}
Sind die Zufallsvariablen paarweise unkorreliert, das heißt ihre Kovarianzen sind alle gleich Null, dann folgt:
Var
(
∑
i
=
1
n
X
i
)
=
∑
i
=
1
n
Var
(
X
i
)
{\displaystyle \operatorname {Var} \left(\sum _{i=1}^{n}X_{i}\right)=\sum _{i=1}^{n}\operatorname {Var} (X_{i})}
Dieser Satz wird auch als Gleichung von Bienaymé bezeichnet. Er gilt insbesondere dann, wenn die Zufallsvariablen unabhängig sind, denn aus Unabhängigkeit folgt Unkorreliertheit.
Charakteristische Funktion
Die Varianz einer Zufallsvariablen
X
{\displaystyle X}
lässt sich auch mit Hilfe ihrer charakteristischen Funktion
φ
X
(
t
)
=
E
(
e
i
t
X
)
{\displaystyle \varphi _{X}(t)=\operatorname {E} \left(e^{\mathrm {i} tX}\right)}
darstellen. Wegen
E
(
X
)
=
φ
X
′
(
0
)
i
{\displaystyle \operatorname {E} (X)={\tfrac {\varphi _{X}'(0)}{\mathrm {i} }}}
und
E
(
X
2
)
=
−
φ
X
″
(
0
)
{\displaystyle \operatorname {E} (X^{2})=-\varphi _{X}''(0)}
folgt nämlich mit dem Verschiebungssatz
Var
(
X
)
=
E
(
X
2
)
−
(
E
(
X
)
)
2
=
−
φ
X
″
(
0
)
−
(
φ
X
′
(
0
)
i
)
2
=
(
φ
X
′
(
0
)
)
2
−
φ
X
″
(
0
)
.
{\displaystyle \operatorname {Var} (X)=\operatorname {E} (X^{2})-(\operatorname {E} (X))^{2}=-\varphi _{X}''(0)-\left({\frac {\varphi _{X}'(0)}{\mathrm {i} }}\right)^{2}=\left(\varphi _{X}'(0)\right)^{2}-\varphi _{X}''(0).}
Momenterzeugende Funktion
Da für die momenterzeugenden Funktion
M
X
(
t
)
=
E
(
e
t
X
)
{\displaystyle M_{X}(t)=\operatorname {E} (e^{tX})}
der Zusammenhang
M
X
(
n
)
(
0
)
=
E
(
X
n
)
{\displaystyle M_{X}^{(n)}(0)=\operatorname {E} (X^{n})}
gilt, lässt sich die Varianz damit auf folgende Weise berechnen:
Var
(
X
)
=
E
(
X
2
)
−
(
E
(
X
)
)
2
=
M
X
″
(
0
)
−
(
M
X
′
(
0
)
)
2
.
{\displaystyle \operatorname {Var} (X)=\operatorname {E} (X^{2})-(\operatorname {E} (X))^{2}=M_{X}''(0)-\left(M_{X}'(0)\right)^{2}\ .}
Wahrscheinlichkeitserzeugende Funktion
Auch mit der wahrscheinlichkeitserzeugenden Funktion
m
X
(
t
)
=
E
(
t
X
)
{\displaystyle m_{X}(t)=\operatorname {E} (t^{X})}
lässt sich für diskrete
X
{\displaystyle X}
die Varianz berechnen. Es gilt dann
Var
(
X
)
=
lim
t
↑
1
(
m
X
″
(
t
)
+
m
X
′
(
t
)
−
m
X
′
(
t
)
2
)
{\displaystyle \operatorname {Var} (X)=\lim _{t\uparrow 1}\left(m_{X}''(t)+m_{X}'(t)-m_{X}'(t)^{2}\right)}
,
falls der linksseitige Grenzwert existiert.
Kumulantenerzeugende Funktion
Die kumulantenerzeugende Funktion einer Zufallsvariable ist definiert als
g
X
(
t
)
=
ln
E
(
e
t
X
)
{\displaystyle g_{X}(t)=\ln \operatorname {E} (e^{tX})}
.
Leitet man sie zweimal ab und wertet sie an der Stelle 0 aus, so erhält man die Varianz:
g
X
″
(
t
)
|
t
=
0
=
Var
(
X
)
{\displaystyle g''_{X}(t){\bigg |}_{t=0}=\operatorname {Var} (X)}
.
Die zweite Kumulante ist also die Varianz.
Varianz einer zusammengesetzten Zufallsvariable
Ist
Y
{\displaystyle Y}
eine zusammengesetzte Zufallsvariable, sprich sind
N
,
X
1
,
X
2
,
…
{\displaystyle N,X_{1},X_{2},\dots }
unabhängige Zufallsvariablen und sind die
X
i
{\displaystyle X_{i}}
identisch verteilt und ist
N
{\displaystyle N}
auf
N
0
{\displaystyle \mathbb {N} _{0}}
definiert, so lässt sich
Y
{\displaystyle Y}
darstellen als
Y
:=
∑
i
=
1
N
X
i
{\displaystyle Y:=\sum _{i=1}^{N}X_{i}}
.
Existieren die zweiten Momente von
N
,
X
1
,
X
2
,
…
{\displaystyle N,X_{1},X_{2},\dots }
, so gilt
Var
(
Y
)
=
Var
(
N
)
(
E
(
X
1
)
)
2
+
E
(
N
)
Var
(
X
1
)
{\displaystyle \operatorname {Var} (Y)=\operatorname {Var} (N)(\operatorname {E} (X_{1}))^{2}+\operatorname {E} (N)\operatorname {Var} (X_{1})}
.
Diese Aussage ist auch als Blackwell-Girshick-Gleichung bekannt.
Beziehung zur Kovarianz
Die Kovarianz
Cov
(
⋅
,
⋅
)
{\displaystyle \operatorname {Cov} (\cdot ,\cdot )}
steht mit der Varianz in folgender Beziehung:
Cov
(
X
,
X
)
=
Var
(
X
)
{\displaystyle \operatorname {Cov} (X,X)=\operatorname {Var} (X)}
.
Die folgt direkt aus den Definitionen. Des Weiteren gilt die Cauchy-Schwarzsche Ungleichung
(
Cov
(
X
,
Y
)
)
2
≤
Var
(
X
)
Var
(
Y
)
{\displaystyle (\operatorname {Cov} (X,Y))^{2}\leq \operatorname {Var} (X)\operatorname {Var} (Y)}
,
da die Kovarianz eine positiv semidefinite Bilinearform ist.
Beispiele
Diskrete Zufallsvariable
Gegeben ist eine diskrete Zufallsvariable
X
{\displaystyle X}
, welche die Werte
−
1
{\displaystyle -1}
,
1
{\displaystyle 1}
und
2
{\displaystyle 2}
mit je den Wahrscheinlichkeiten
0
,
5
{\displaystyle 0{,}5}
,
0
,
3
{\displaystyle 0{,}3}
und
0
,
2
{\displaystyle 0{,}2}
annimmt.
Der Erwartungswert beträgt
E
(
X
)
=
−
1
⋅
0
,
5
+
1
⋅
0
,
3
+
2
⋅
0
,
2
=
0
,
2.
{\displaystyle \operatorname {E} (X)=-1\cdot 0{,}5+1\cdot 0{,}3+2\cdot 0{,}2=0{,}2.}
und die Varianz ist demnach
Var
(
X
)
=
E
(
(
X
−
E
(
X
)
)
2
)
=
(
−
1
−
0
,
2
)
2
⋅
0
,
5
+
(
1
−
0
,
2
)
2
⋅
0
,
3
+
(
2
−
0
,
2
)
2
⋅
0
,
2
=
1
,
56.
{\displaystyle \operatorname {Var} (X)=\operatorname {E} {\bigl (}(X-\operatorname {E} (X))^{2}{\bigr )}=(-1-0{,}2)^{2}\cdot 0{,}5+(1-0{,}2)^{2}\cdot 0{,}3+(2-0{,}2)^{2}\cdot 0{,}2=1{,}56.}
Mit dem Verschiebungssatz erhält man ebenfalls
Var
(
X
)
=
E
(
X
2
)
−
(
E
(
X
)
)
2
=
(
−
1
)
2
⋅
0
,
5
+
1
2
⋅
0
,
3
+
2
2
⋅
0
,
2
−
0
,
2
2
=
1
,
56.
{\displaystyle \operatorname {Var} (X)=\operatorname {E} {\bigl (}X^{2}{\bigr )}-{\bigl (}\operatorname {E} (X){\bigr )}^{2}=(-1)^{2}\cdot 0{,}5+1^{2}\cdot 0{,}3+2^{2}\cdot 0{,}2-0{,}2^{2}=1{,}56.}
Für die Standardabweichung ergibt sich damit
σ
X
=
Var
(
X
)
=
1
,
56
≈
1,249.
{\displaystyle \sigma _{X}={\sqrt {\operatorname {Var} (X)}}={\sqrt {1{,}56}}\approx 1{,}249.}
Stetige Zufallsvariable
Eine stetige Zufallsvariable habe die Dichtefunktion
f
(
x
)
=
{
1
x
falls
1
≤
x
≤
e
0
sonst
{\displaystyle f(x)={\begin{cases}{\frac {1}{x}}&{\text{ falls }}1\leq x\leq e\\0&{\text{ sonst }}\end{cases}}}
.
Mit dem Erwartungswert von
X
{\displaystyle X}
E
(
X
)
=
∫
1
e
x
⋅
1
x
d
x
=
e
−
1
{\displaystyle \operatorname {E} (X)=\int _{1}^{e}x\cdot {\frac {1}{x}}\,dx=e-1}
und dem Erwartungswert von
X
2
{\displaystyle X^{2}}
E
(
X
2
)
=
∫
−
∞
∞
x
2
⋅
f
(
x
)
d
x
=
∫
1
e
x
2
⋅
1
x
d
x
=
[
x
2
2
]
1
e
=
e
2
2
−
1
2
{\displaystyle \operatorname {E} {\bigl (}X^{2}{\bigr )}=\int _{-\infty }^{\infty }x^{2}\cdot f(x)\,dx=\int _{1}^{e}x^{2}\cdot {\frac {1}{x}}\,dx=\left[{\frac {x^{2}}{2}}\right]_{1}^{e}={\frac {e^{2}}{2}}-{\frac {1}{2}}}
berechnet sich die Varianz mit Hilfe des Verschiebungssatzes als
Var
(
X
)
=
E
(
X
2
)
−
(
E
(
X
)
)
2
=
e
2
2
−
1
2
−
(
e
−
1
)
2
≈
0,242.
{\displaystyle \operatorname {Var} (X)=\operatorname {E} {\bigl (}X^{2}{\bigr )}-{\bigl (}\operatorname {E} (X){\bigr )}^{2}={\frac {e^{2}}{2}}-{\frac {1}{2}}-(e-1)^{2}\approx 0{,}242.}
Verwandte Begriffe
Fasst man die Varianz als Streumaß der Verteilung einer Zufallsvariable auf, so ist sie mit den folgenden Streumaßen verwandt:
In der Statistik gibt es noch weitere empirische Streumaße , die sich aber nicht alle sinnvoll für Verteilungen definieren lassen.
Verallgemeinerungen
Im Falle eines reellen Zufallsvektors
X
=
(
X
1
,
…
,
X
n
)
{\displaystyle X=(X_{1},\dots ,X_{n})}
mit quadratisch integrierbaren Komponenten verallgemeinert sich die Varianz zu der Kovarianzmatrix eines Zufallsvektors:
Cov
(
X
)
:=
E
(
(
X
−
μ
)
(
X
−
μ
)
T
)
.
{\displaystyle \operatorname {Cov} (X):=\operatorname {E} \left((X-\mu )(X-\mu )^{T}\right).}
Dabei ist
μ
=
E
(
X
)
=
(
E
(
X
1
)
,
…
,
E
(
X
n
)
)
{\displaystyle \mu =\operatorname {E} (X)=(\operatorname {E} (X_{1}),\dots ,\operatorname {E} (X_{n}))}
der Vektor der Erwartungswerte.
Der Eintrag der
i
{\displaystyle i}
-ten Zeile und
j
{\displaystyle j}
-ten Spalte der Kovarianzmatrix ist
Cov
(
X
i
,
X
j
)
{\displaystyle \operatorname {Cov} (X_{i},X_{j})}
. In der Diagonale stehen also die Varianzen
Var
(
X
i
)
=
Cov
(
X
i
,
X
i
)
{\displaystyle \operatorname {Var} (X_{i})=\operatorname {Cov} (X_{i},X_{i})}
der einzelnen Komponenten.
Analog zu bedingten Erwartungswerten lassen sich beim Vorliegen von Zusatzinformationen, wie beispielsweise den Werten einer weiteren Zufallsvariablen, bedingte Varianzen betrachten.
Weblinks