Bedingte Varianz

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Die bedingte Varianz beschreibt in der Wahrscheinlichkeitstheorie und Statistik die Varianz einer Zufallsvariablen unter der Voraussetzung, dass noch zusätzliche Informationen über den Ausgang des zugrunde liegenden Zufallsexperiments verfügbar sind. Sie ist definiert als der bedingte Erwartungswert der quadratischen Abweichung der Zufallsvariablen von ihrem bedingten Erwartungswert. Wie bei diesem kann die Bedingung beispielsweise darin bestehen, dass bekannt ist, ob ein gewisses Ereignis eingetreten ist oder welche Werte eine weitere Zufallsvariable angenommen hat; abstrakt kann die Zusatzinformation als Unterraum des zugrunde liegenden Ereignisraums aufgefasst werden.

Ein wichtige Anwendung ist die Varianzzerlegung, eine Formel, mit der Varianzen durch bedingte Varianzen und bedingte Erwartungswerte dargestellt werden können und die auch in der Regressionsanalyse eine Rolle spielt. Zeitreihenmodelle wie ARCH oder dessen Verallgemeinerung GARCH verwenden bedingte Varianzen, um gezielt stochastische Abhängigkeiten in Prozessen zu modellieren, wie sie vor allem in finanzmathematischen Fragestellungen auftreten.

Definition[Bearbeiten]

Es seien X und Y zwei reelle Zufallsvariable auf einem Wahrscheinlichkeitsraum (\Omega, \Sigma, P), dann heißt

\operatorname{Var}(X \mid Y) = \operatorname{E}\bigl( (X - \operatorname{E}(X \mid Y))^2 \mid Y \bigr)

die bedingte Varianz von X gegeben Y (oder Varianz von X bedingt auf Y).

Analog zum bedingten Erwartungswert betrachtet man auch die bedingten Varianzen

  • \operatorname{Var}(X \mid A) gegeben ein Ereignis A \in \Sigma,
  • \operatorname{Var}(X \mid Y = y) gegeben, dass Y den Wert y annimmt,

sowie allgemein

  • \operatorname{Var}(X \mid \Sigma') gegeben eine Teil-σ-Algebra \Sigma' \subseteq \Sigma.

Dazu werden in der Definition die beiden Erwartungswerte jeweils auf A, Y=y bzw. \Sigma' bedingt.

Im Folgenden werden alle Formeln nur für die Bedingung auf eine weitere Zufallsvariable angegeben, für die anderen Fälle gelten sie entsprechend. Es ist jedoch zu beachten, dass \operatorname{Var}(X \mid A) und \operatorname{Var}(X \mid Y=y) nichtnegative reelle Zahlen (oder \infty) sind, während es sich bei \operatorname{Var}(X \mid Y) und \operatorname{Var}(X \mid \Sigma') um Zufallsvariablen handelt. Alle folgenden Gleichungen und Ungleichungen für Letztere sind wegen der Nichteindeutigkeit von bedingten Erwartungswerten als P-fast sicher zu verstehen, ohne dass dies explizit angegeben wird.

Einfache Rechenregeln[Bearbeiten]

Aus der zur (unbedingten) Varianz analogen Definition ergibt sich zusammen mit den Rechenregeln für bedingte Erwartungswerte, dass die Rechenregeln für Varianzen entsprechend weiterhin gelten. Insbesondere hat man:

Varianzzerlegung[Bearbeiten]

Eine wichtige Aussage im Zusammenhang mit der bedingten Varianz ist die Varianzzerlegung (auch Satz von der totalen Varianz genannt), nach der die (unbedingte) Varianz einer Zufallsvariablen die Summe aus dem Erwartungswert ihrer bedingten Varianz und der Varianz ihres bedingten Erwartungswerts ist:

\operatorname{Var}(X) = \operatorname{E}(\operatorname{Var}(X \mid Y)) + \operatorname{Var}(\operatorname{E}(X \mid Y)).

Das sieht man so: Der bedingte Erwartungswert U := \operatorname{E}(X \mid Y) ist eine Zufallsvariable mit Erwartungswert \operatorname{E}(U) = \operatorname{E}(X) und Varianz

\operatorname{Var}(U) = \operatorname{E}(U^2) - (\operatorname{E}(X))^2.

Die bedingte Varianz hat den Erwartungswert

\operatorname{E}(\operatorname{Var}(X \mid Y)) = \operatorname{E}(\operatorname{E}(X^2 \mid Y)) - \operatorname{E}(U^2) = \operatorname{E}(X^2) - \operatorname{E}(U^2).

Addition der letzten beiden Gleichungen ergibt

\operatorname{E}(\operatorname{Var}(X \mid Y)) + \operatorname{Var}(\operatorname{E}(X \mid Y)) = \operatorname{E}(X^2) - (\operatorname{E}(X))^2 = \operatorname{Var}(X).

Beispiele[Bearbeiten]

Wie viele Küken?
  • Ein Huhn legt in einem festen Zeitraum eine zufällige Anzahl N von Eiern, von der angenommen wird, dass sie poissonverteilt mit Erwartungswert \mu ist. Aus jedem dieser Eier schlüpfe – unabhängig von den anderen – mit einer festen Wahrscheinlichkeit p \in (0,1) ein Küken. Die Zufallsvariable X bezeichne die Anzahl der geschlüpften Küken. Unter der Bedingung N = n mit n \in \N ist dann X binomialverteilt mit Parametern n und p, es gilt daher
\operatorname{E}(X \mid N = n) = np\quad und \quad\operatorname{Var}(X \mid N = n) = np(1-p),
also
\operatorname{E}(X \mid N) = Np\quad und \quad\operatorname{Var}(X \mid N) = Np(1-p).
Mit dem Satz vom totalen Erwartungswert folgt
\operatorname{E}(X) = \operatorname{E}(Np) = p\operatorname{E}(N) = p \mu
und mit der Varianzzerlegung
\operatorname{Var}(X) = \operatorname{E}(Np(1-p)) + \operatorname{Var}(Np) = p(1-p) \operatorname{E}(N) + p^2 \operatorname{Var}(N) = p(1-p)\mu + p^2\mu = p\mu.
  • Die Zufallsvariablen X und Y seien bivariat normalverteilt mit Erwartungswerten \mu_X und \mu_Y, Varianzen \sigma_X^2 und \sigma_Y^2 sowie dem Korrelationskoeffizienten \varrho \in [-1,1]. Dann ist X bedingt auf Y = y normalverteilt mit Erwartungswert \mu_X + \tfrac{\sigma_X}{\sigma_Y}\varrho(y - \mu_Y) und Varianz (1-\varrho^2)\sigma_X^2. Insbesondere ist also in diesem Beispiel die bedingte Varianz
\operatorname{Var}(X \mid Y) = (1-\varrho^2)\sigma_X^2
konstant (unabhängig von Y).

Literatur[Bearbeiten]

  • Richard Durrett: The Essentials of Probability. Duxbury Press, Belmont 1994, ISBN 0-534-19230-0, S. 206–213.
  • Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2. Auflage. Springer, Berlin/Heidelberg 2011, ISBN 978-3-642-21025-9.