Varianz (Stochastik)

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Dieser Artikel behandelt den theoretischen Varianzbegriff. Zur empirischen Varianz siehe Stichprobenvarianz.
Dichten zweier normalverteilter Zufallsvariablen mit gleichem Erwartungswert aber unterschiedlichen Varianzen. Die rote Kurve hat eine geringere Varianz (entsprechend der Breite) als die grüne. Die Wurzel der Varianz, die Standardabweichung, kann bei der Normalverteilung an den Wendepunkten ersehen werden.

In der Stochastik ist die Varianz einer Zufallsvariablen X ein Streuungsmaß von X, d. h. ein Maß für die Abweichung einer Zufallsvariablen X von ihrem Erwartungswert \operatorname {E}(X). Die Varianz der Zufallsvariablen X wird üblicherweise als \operatorname{V}(X), \operatorname{Var}(X), \sigma_X^2 oder einfach als \sigma^2 notiert; sie ist stets ≥ 0.

Die Varianz ist eine Eigenschaft der Verteilung einer Zufallsvariablen und hängt nicht vom Zufall ab. Sie misst die Streuung der Werte relativ zum Erwartungswert, dabei werden die Quadrate der Abweichungen entsprechend ihrer Wahrscheinlichkeit gewichtet. In der Praxis wird die Varianz der Zufallsvariablen mit einem Varianzschätzer, etwa der ihrer empirischen Entsprechung, der Stichprobenvarianz, geschätzt.

Definition[Bearbeiten]

Es sei X eine reelle Zufallsvariable, die integrierbar ist, das heißt es gilt \operatorname{E}(|X|)< \infty . Dann existiert ihr Erwartungswert \mu = \operatorname E(X), und man definiert die Varianz von X wie folgt:

\operatorname{Var}(X) := \operatorname V(X) := \operatorname{E}\left( (X-\mu)^2\right).

Ist X quadratisch integrierbar, also \operatorname{E}(|X|^2) < \infty, so ist die Varianz endlich.

Die Varianz ist also das zweite zentrale Moment einer Zufallsvariablen und damit die erwartete quadratische Abweichung der Zufallsvariablen von ihrem Erwartungswert.

Die Quadratwurzel der Varianz heißt Standardabweichung:

\sigma_X :=\sqrt{\operatorname{Var}(X)}.

Berechnung bei diskreten Zufallsvariablen[Bearbeiten]

Eine reelle Zufallsvariable mit einem endlichen oder abzählbar unendlichen Wertebereich A wird diskret genannt. Ihre Varianz berechnet sich dann als

\operatorname{Var}(X) = \sum_{x \in A} (x - \mu)^2 P(X = x).

Hierbei ist P(X=x) die Wahrscheinlichkeit, dass X den Wert x annimmt, und

\mu = \sum_{x \in A} x P(X=x)

der Erwartungswert von X. Die Summen erstrecken sich jeweils über alle Werte, die die Zufallsvariable X annehmen kann.

Berechnung bei stetigen Zufallsvariablen[Bearbeiten]

Wenn eine Zufallsvariable X eine Wahrscheinlichkeitsdichtefunktion f(x) hat, gilt

\operatorname{Var}(X)\ = \int_{-\infty}^{\infty} (x-\mu)^2 f(x) \, \mathrm{d}x,

wobei

\mu\ = \int_{-\infty}^{\infty} x f(x) \, \mathrm{d}x.

Rechenregeln[Bearbeiten]

Verschiebungssatz[Bearbeiten]

Varianzen lassen sich oft einfacher mit Hilfe des Verschiebungssatzes

\operatorname{Var}(X)=\operatorname{E}\left(\left(X-\operatorname{E}(X)\right)^2\right)=\operatorname{E}\left(X^2\right)-\left(\operatorname{E}(X)\right)^2

berechnen, da hierzu außer dem Erwartungswert von X nur noch der Erwartungswert von X^2 bestimmt werden muss.

Am Computer ist diese Art der Berechnung aber zu vermeiden, da es bei der Verwendung von Fließkommazahlen leicht zu katastrophaler Auslöschung kommen kann.

Lineare Transformation[Bearbeiten]

Für reelle Zahlen a und b gilt

\operatorname{Var}(aX+b) = a^2 \operatorname{Var}(X).

Dies kann mittels des Verschiebungssatzes hergeleitet werden:

\begin{align}
 \operatorname{Var}(aX+b)
 &= \operatorname{E}[ (aX + b - \operatorname{E}(aX + b))^2 ]\\
 &= \operatorname{E}[ (aX + b - b - a \operatorname{E}(X))^2 ]\\
 &= \operatorname{E}[ a^2 (X - \operatorname{E}(X))^2 ]\\
 &= a^2 \operatorname{E}[ (X - \operatorname{E}(X))^2 ]\\
 &= a^2 \operatorname{Var}(X)
\end{align}

Insbesondere für a = -1 und b=0 folgt

\operatorname{Var}(-X) = \operatorname{Var}(X).

Varianz von Summen von Zufallsvariablen[Bearbeiten]

Für die Varianz einer beliebigen Summe von Zufallsvariablen X_1,\dots,X_n gilt allgemein

\operatorname{Var}\left(\sum_{i=1}^n X_i\right)= \sum_{i,j=1}^n \operatorname{Cov}(X_i,X_j) = \sum_{i=1}^n \operatorname{Var}(X_i)+2\sum_{i=1}^{n-1}\sum_{j=i+1}^n\operatorname{Cov}(X_i,X_j)

Hierin bezeichnet \operatorname{Cov}(X_i, X_j) die Kovarianz der Zufallsvariablen X_i und X_j und es wurde verwendet, dass \operatorname{Cov}(X_i,X_i) = \operatorname{Var}(X_i) gilt. Speziell für zwei Zufallsvariablen X und Y ergibt sich beispielsweise

\operatorname{Var}(X+Y) = \operatorname{Var}(X) + \operatorname{Var}(Y) + 2\operatorname{Cov}(X,Y).

Sind die Zufallsvariablen paarweise unkorreliert, das heißt ihre Kovarianzen sind alle gleich Null, dann folgt:

\operatorname{Var}\left(\sum_{i=1}^n X_i\right)=\sum_{i=1}^n \operatorname{Var}(X_i)

Dieser Satz wird auch als Gleichung von Bienaymé bezeichnet. Er gilt insbesondere dann, wenn die Zufallsvariablen unabhängig sind, denn aus Unabhängigkeit folgt Unkorreliertheit.

Charakteristische Funktion[Bearbeiten]

Die Varianz einer Zufallsvariablen X lässt sich auch mit Hilfe ihrer charakteristischen Funktion \varphi_{X}(t)=\operatorname{E}\left(e^{\mathrm{i}tX}\right) darstellen. Wegen \operatorname{E}(X) = \tfrac{\varphi_X'(0)}{\mathrm{i}} und \operatorname{E}(X^2) = -\varphi_X''(0) folgt nämlich mit dem Verschiebungssatz

\operatorname{Var}(X)
= \operatorname{E}(X^2) - (\operatorname{E}(X))^2
= -\varphi_X''(0) - \left(\frac{\varphi_X'(0)}{\mathrm{i}}\right)^{2}
= \left( \varphi_X'(0)\right)^2 -\varphi_X''(0).

Momenterzeugende Funktion[Bearbeiten]

Da für die momenterzeugenden Funktion M_X(t) = \operatorname{E}(e^{tX}) der Zusammenhang

M_X^{(n)}(0) = \operatorname{E}(X^{n})

gilt, lässt sich die Varianz damit auf folgende Weise berechnen:

\operatorname{Var}(X) = \operatorname{E}(X^2) - (\operatorname{E}(X))^2 = M_X''(0) - \left( M_X'(0)\right)^2\ .

Beispiele[Bearbeiten]

Diskrete Zufallsvariable[Bearbeiten]

Gegeben ist eine diskrete Zufallsvariable X, welche die Werte -1, 1 und 2 mit je den Wahrscheinlichkeiten 0{,}5, 0{,}3 und 0{,}2 annimmt. Der Erwartungswert beträgt

\operatorname{E}(X) = -1 \cdot 0{,}5 + 1 \cdot 0{,}3 + 2 \cdot 0{,}2 = 0{,}2

und die Varianz ist demnach

\operatorname{Var}(X) = (-1-0{,}2)^2 \cdot 0{,}5 +(1-0{,}2)^2 \cdot 0{,}3 +(2-0{,}2)^2 \cdot 0{,}2 = 1{,}56

Mit dem Verschiebungssatz erhält man ebenfalls

\operatorname{Var}(X) = (-1)^2 \cdot 0{,}5 +1^2 \cdot 0{,}3 +2^2 \cdot 0{,}2 - 0{,}2^2 = 1{,}56.

Für die Standardabweichung ergibt sich damit

\sigma_X = \sqrt{\operatorname{Var}(X)} = \sqrt{1{,}56} = 1{,}249

Stetige Zufallsvariable[Bearbeiten]

Eine stetige Zufallsvariable habe die Dichtefunktion

 f(x) =
\begin{cases} 
  \frac {1}{x} & \text{ falls } 1 \le x \le e \\
   0           & \text{ sonst }
\end{cases} 
.

Mit dem Erwartungswert

\operatorname{E}(X) = \int_1^e x \cdot \frac {1}{x} dx = e - 1

berechnet sich die Varianz mit Hilfe des Verschiebungssatzes als

\begin{align}
  \operatorname{Var}(X)
  &= \int_{-\infty}^\infty x^2 \cdot f(x) dx - (\operatorname{E}(X))^2\\
  &= \int_1^e x^2 \cdot \frac {1}{x} dx - (e - 1)^2\\
  &= \left[ \frac{x^2}{2}\right] _1^e - (e - 1)^2\\
  &= \frac{e^2}{2} - \frac{1}{2} -(e-1)^2\\
  &\approx 0{,}242
\end{align}

Verallgemeinerungen[Bearbeiten]

Im Falle eines reellen Zufallsvektors X = (X_1, \dots, X_n) mit quadratisch integrierbaren Komponenten verallgemeinert sich die Varianz zu der Kovarianzmatrix eines Zufallsvektors:

\operatorname{Cov}(X) := \operatorname E\left((X-\mu)(X-\mu)^T\right).

Dabei ist \mu = \operatorname E(X) = (\operatorname{E}(X_1), \dots, \operatorname{E}(X_n)) der Vektor der Erwartungswerte. Der Eintrag der i-ten Zeile und j-ten Spalte der Kovarianzmatrix ist \operatorname{Cov}(X_i, X_j). In der Diagonale stehen also die Varianzen \operatorname{Var}(X_i) = \operatorname{Cov}(X_i,X_i) der einzelnen Komponenten.

Analog zu bedingten Erwartungswerten lassen sich beim Vorliegen von Zusatzinformationen, wie beispielsweise den Werten einer weiteren Zufallsvariablen, bedingte Varianzen betrachten.

Weblinks[Bearbeiten]