Erwartungswert

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Der Erwartungswert (selten und doppeldeutig Mittelwert) ist ein Grundbegriff der Stochastik. Der Erwartungswert einer Zufallsvariablen beschreibt die Zahl, die die Zufallsvariable im Mittel annimmt. Er ergibt sich zum Beispiel bei unbegrenzter Wiederholung des zugrunde liegenden Experiments als Durchschnitt der Ergebnisse. Das Gesetz der großen Zahlen beschreibt, in welcher Form genau die Durchschnitte der Ergebnisse bei wachsender Anzahl der Experimente gegen den Erwartungswert streben, das heißt wie die Stichprobenmittelwerte bei wachsender Stichprobengröße gegen den Erwartungswert konvergieren.

Er bestimmt die Lokalisation (Lage) der Verteilung der Zufallsvariablen und ist vergleichbar mit dem empirischen arithmetischen Mittel einer Häufigkeitsverteilung in der deskriptiven Statistik. Er berechnet sich als nach Wahrscheinlichkeit gewichtetes Mittel der Werte, die die Zufallsvariable annimmt. Er muss selbst jedoch nicht einer dieser Werte sein. Insbesondere kann der Erwartungswert die Werte \pm \infty annehmen.

Weil der Erwartungswert nur von der Wahrscheinlichkeitsverteilung abhängt, spricht man auch vom Erwartungswert einer Verteilung, ohne Bezug auf eine Zufallsvariable.

Der Erwartungswert einer Zufallsvariablen kann als Schwerpunkt der Wahrscheinlichkeitsmasse betrachtet werden und wird daher auch als ihr erstes Moment bezeichnet.

Motivation[Bearbeiten]

Die Definition des Erwartungswerts steht in Analogie zum gewichteten Mittelwert von empirisch beobachteten Zahlen. Hat zum Beispiel eine Serie von zehn Würfelversuchen die Ergebnisse 4, 2, 1, 3, 6, 3, 3, 1, 4, 5 geliefert, kann der zugehörige Mittelwert

\bar x=(4 + 2 + 1 + 3 + 6 + 3 + 3 + 1 + 4 + 5)\cdot\tfrac1{10} = 3{,}2

alternativ berechnet werden, indem man zunächst gleiche Werte zusammenfasst und nach ihrer relativen Häufigkeit gewichtet:

\bar x = \tfrac 2{10}\cdot 1 +  \tfrac 1{10}\cdot  2 + \tfrac 3{10}\cdot  3 +  \tfrac 2{10}\cdot  4 +  \tfrac 1{10}\cdot  5 +  \tfrac 1{10}\cdot  6 = 3{,}2.

Allgemein lässt der Mittelwert der Augenzahlen in n Würfen sich wie

1\cdot h_n(1)+2\cdot h_n(2)+3\cdot h_n(3)+4\cdot h_n(4)+5\cdot h_n(5)+6\cdot h_n(6),

schreiben, worin h_n(k) die relative Häufigkeit der Augenzahl k bezeichnet.

Die Augenzahlen beim Würfelwurf können als unterschiedliche Ausprägungen einer Zufallsvariablen X betrachtet werden. Weil die relativen Häufigkeiten sich gemäß dem Gesetz der großen Zahlen mit wachsendem Stichprobenumfang n den Wahrscheinlichkeiten für die einzelnen Augenzahlen annähern, muss der Mittelwert gegen den Erwartungswert von X streben, zu dessen Berechnung die möglichen Ausprägungen mit ihrer theoretischen Wahrscheinlichkeit gewichtet werden:

\operatorname{E}(X) =1\cdot P(X=1)+2\cdot P(X=2)+3\cdot P(X=3)+4\cdot P(X=4)+5\cdot P(X=5)+6\cdot P(X=6)\,
=(1 + 2 + 3 + 4 + 5 + 6)\cdot \tfrac16 = 3{,}5.

Wie die Ergebnisse der Würfelwürfe ist auch der Mittelwert vom Zufall abhängig. Im Unterschied dazu ist der Erwartungswert eine feste Kennzahl der Verteilung der Zufallsvariablen X.

Definitionen[Bearbeiten]

Ist eine Zufallsvariable diskret oder besitzt sie eine Dichte, so existieren folgende Formeln für den Erwartungswert:

Erwartungswert einer diskreten reellen Zufallsvariablen[Bearbeiten]

Im reellen diskreten Fall errechnet sich der Erwartungswert als die Summe der Produkte aus den Wahrscheinlichkeiten jedes möglichen Ergebnisses des Experiments und den „Werten“ dieser Ergebnisse.

Ist X eine reelle diskrete Zufallsvariable, die die Werte (x_i)_{i \in I} mit den jeweiligen Wahrscheinlichkeiten (p_i)_{i \in I} annimmt (mit I als abzählbarer Indexmenge), so errechnet sich der Erwartungswert \operatorname{E}(X) im Falle der Existenz mit:

\operatorname{E}(X)=\sum_{i\in I} x_i p_i=\sum_{i \in I} x_i P(X=x_i)

Ist I = \mathbb{N}, so besitzt X genau dann einen endlichen Erwartungswert \operatorname{E}(X), wenn die Konvergenzbedingung

\lim_{a\rightarrow \infty}\sum_{i=1}^a |x_i|p_i = \sum_{i=1}^\infty |x_i|p_i <\infty erfüllt ist, d. h. die Reihe für den Erwartungswert absolut konvergent ist.

Erwartungswert einer reellen Zufallsvariablen mit Dichtefunktion[Bearbeiten]

Der Erwartungswert balanciert die Wahrscheinlichkeitsmasse – hier die Masse unter der Dichte einer Beta(α,β)-Verteilung mit Erwartungswert α/(α+β).

Hat eine reelle Zufallsvariable X eine Wahrscheinlichkeitsdichtefunktion f, das heißt hat das Bildmaß P^X diese Dichte bezüglich dem Lebesgue-Maß \lambda, so berechnet sich der Erwartungswert im Falle der Existenz als

(1) \displaystyle\quad \operatorname E(X)= \int_{\mathbb{R}} x f(x)\,\mathrm{d}\lambda(x).

In vielen Anwendungsfällen liegt (im Allgemeinen uneigentliche) Riemann-Integrierbarkeit vor und man hat:

(2) \displaystyle\quad \operatorname E(X)=\int_{-\infty}^\infty x f(x)\,\mathrm{d}x.

Gleichwertig zu dieser Gleichung ist, wenn F Verteilungsfunktion von X ist:

(3) \displaystyle\quad\operatorname E(X)=\int_0^\infty (1-F(x))\,\mathrm{d}x - \int_{-\infty}^0 F(x)\,\mathrm{d}x.

(2) und (3) sind unter der gemeinsamen Voraussetzung (f ist Dichtefunktion und F ist Verteilungsfunktion von f) äquivalent, was mit schulgemäßen Mitteln bewiesen werden kann.[1]

Allgemeine Definition[Bearbeiten]

Der Erwartungswert wird entsprechend als das Integral bezüglich des Wahrscheinlichkeitsmaßes definiert: Ist X eine P-integrierbare oder P-quasiintegrierbare Zufallsvariable von einem Wahrscheinlichkeitsraum (\Omega,\Sigma,P) nach (\overline{\R},\mathcal{B}), wobei \mathcal{B} die Borelsche σ-Algebra über \overline{\R}:=\R\cup\{-\infty,\infty\} ist, so definiert man

\operatorname{E}(X) = \int_\Omega X \,\mathrm{d}P = \int_\Omega X(\omega)\mathrm{d}P(\omega)\,.

Die Zufallsvariable X besitzt genau dann einen Erwartungswert, wenn sie quasiintegrierbar ist, also die Integrale

\int_\Omega X^+(\omega)\,\mathrm{d}P(\omega) und \int_\Omega X^-(\omega)\,\mathrm{d}P(\omega)

nicht beide unendlich sind, wobei X^+ und X^- den Positiv- sowie den Negativteil von X bezeichnen. In diesem Fall kann \operatorname{E}(X) = \infty oder \operatorname{E}(X) = -\infty gelten.

Der Erwartungswert ist genau dann endlich, wenn X integrierbar ist, also die obigen Integrale über X^+ und X^- beide endlich sind. Dies ist äquivalent mit

\int_\Omega |X(\omega)|\,\mathrm{d}P(\omega) < \infty .

In diesem Fall schreiben viele Autoren, der Erwartungswert existiere oder X sei eine Zufallsvariable mit existierendem Erwartungswert, und schließen damit den Fall \infty bzw. -\infty aus.

Erwartungswert von zwei Zufallsvariablen mit gemeinsamer Dichtefunktion[Bearbeiten]

Haben die integrierbaren Zufallsvariablen X und Y eine gemeinsame Wahrscheinlichkeitsdichtefunktion f(x,y), so berechnet sich der Erwartungswert einer Funktion g(X,Y) von X und Y nach dem Satz von Fubini zu

\operatorname{E}(g(X,Y))=\int_{-\infty}^\infty \int_{-\infty}^\infty g(x,y) f(x,y)\,\mathrm{d}x \,\mathrm{d}y.

Der Erwartungswert von g(X,Y) ist nur dann endlich, wenn das Integral

\int_{-\infty}^\infty \int_{-\infty}^\infty \left| g(x,y) \right| f(x,y)\,\mathrm{d}x\,\mathrm{d}y

endlich ist.

Insbesondere ist:

\operatorname{E}(X)=\int_{-\infty}^\infty \int_{-\infty}^\infty x f(x,y)\,\mathrm{d}x\,\mathrm{d}y

Aus der Randdichte errechnet sich der Erwartungswert wie bei univariaten Verteilungen:

\operatorname{E}(X)=\int_{-\infty}^\infty x f_X(x)\,\mathrm{d}x .

Dabei ist die Randdichte f_X(x) gegeben durch

f_X(x)=\int_{-\infty}^\infty f(x,y)\,\mathrm{d}y .

Beispiele[Bearbeiten]

Würfeln[Bearbeiten]

Das Experiment sei ein Würfelwurf. Als Zufallsvariable X betrachten wir die gewürfelte Augenzahl, wobei jede der Zahlen 1 bis 6 mit einer Wahrscheinlichkeit von jeweils 1/6 gewürfelt wird.

\operatorname{E}(X)=\sum_{i=1}^6 i\cdot \frac{1}{6} = 3{,}5

Wenn man beispielsweise 1000 Mal würfelt, d. h. das Zufallsexperiment 1000 mal wiederholt, die geworfenen Augenzahlen zusammenzählt und durch 1000 dividiert, ergibt sich mit hoher Wahrscheinlichkeit ein Wert in der Nähe von 3,5. Es ist jedoch unmöglich, diesen Wert mit einem einzigen Würfelwurf zu erzielen.

St. Petersburger Spiel[Bearbeiten]

Das sogenannte St. Petersburger Spiel ist ein Spiel, dessen zufälliger Gewinn X einen unendlichen Erwartungswert hat. Man wirft eine Münze. Zeigt sie Kopf, erhält man 2 Euro und das Spiel ist beendet, zeigt sie Zahl, darf man nochmals werfen. Wirft man nun Kopf, erhält man 4 Euro und das Spiel ist beendet, wirft man wieder Zahl, so darf man ein drittes Mal werfen. Der Erwartungswert des Gewinnes X ist unendlich:

\operatorname{E}(X)= 2\cdot\frac{1}{2} + 4\cdot\frac{1}{4} + 8\cdot\frac{1}{8} + \cdots = 1 + 1 + \cdots = \infty.

Zufallsvariable mit Dichte[Bearbeiten]

Gegeben ist die reelle Zufallsvariable X mit der Dichtefunktion

f(x) = \begin{cases} \frac 1x, & 3 \le x \le 3\mathrm{e}, \\
& \\
0, & \text {sonst}, \end{cases}

wobei \mathrm{e} die Eulersche Konstante bezeichnet.


Der Erwartungswert von X berechnet sich als

\begin{align}
  \operatorname E(X)&= \int_{-\infty}^\infty x f(x)\,\mathrm{d}x = \int_{-\infty}^3 x \cdot 0\,\mathrm{d}x + \int_3^{3\mathrm{e}} x \cdot \frac 1x\,\mathrm{d}x + \int_{3\mathrm{e}}^\infty x \cdot 0 \,\mathrm{d}x\\
                    &= 0 + \int_3^{3\mathrm{e}} 1\,\mathrm{d}x + 0 = [x]^{3\mathrm{e}}_3 = 3\mathrm{e}-3 = 3(\mathrm{e}-1).
\end{align}

Allgemeine Definition[Bearbeiten]

Gegeben sei der Wahrscheinlichkeitsraum (\Omega, \Sigma, P) mit \Omega = \{\omega_1, \omega_2 , \omega_3\}, \Sigma die Potenzmenge von \Omega und P(\{\omega_i\})=\tfrac{1}{3} für i=1,2,3. Der Erwartungswert der Zufallsvariablen X \colon \Omega \to \R mit X(\omega_1) = X(\omega_2) = 1 und X(\omega_3) = 2 ist

\operatorname{E}(X) = \int_\Omega X \, \mathrm{d}P = X(\omega_1)P(\{\omega_1\}) + X(\omega_2)P(\{\omega_2\}) + X(\omega_3)P(\{\omega_3\}) = 1 \cdot \frac{1}{3} + 1 \cdot \frac{1}{3} + 2 \cdot \frac{1}{3} = \frac{4}{3}.

Da X eine diskrete Zufallsvariable ist mit P(X=1) = P(\{\omega_1, \omega_2\}) = \tfrac{2}{3} und P(X=2) = P(\{\omega_3\}) = \tfrac{1}{3}, kann der Erwartungswert alternativ auch berechnet werden als

\operatorname{E}(X) = 1 \cdot P(X=1) + 2 \cdot P(X=2) = 1 \cdot \frac{2}{3} + 2 \cdot \frac{1}{3} = \frac{4}{3}.

Rechenregeln[Bearbeiten]

Der Erwartungswert ist linear für alle integrierbaren Zufallsvariablen, da das Integral ein linearer Operator ist. Daraus ergeben sich die folgenden zwei sehr nützlichen Regeln:

Erwartungswert der Summe von n Zufallsvariablen[Bearbeiten]

Der Erwartungswert der Summe von n integrierbaren Zufallsvariablen X_i lässt sich als Summe der einzelnen Erwartungswerte berechnen:

\operatorname{E}\left(\sum_{i=1}^nX_i\right)=\sum_{i=1}^n\operatorname{E}(X_i)

Dies gilt auch für diskrete Zufallsvariable und auch, falls sie nicht stochastisch unabhängig sind.

Lineare Transformation[Bearbeiten]

Seien X und Y zwei integrierbare Zufallsvariable, so gilt für die lineare Transformation Y=cX + d\, mit c,d \in \mathbb{R}:

\operatorname{E}(Y)=\operatorname{E}(cX+d)=c\operatorname{E}(X)+d,

insbesondere also

\operatorname{E}(cX)=c\operatorname{E}(X)

und

\operatorname{E}(d) = d.

Erwartungswert des Produkts von n stochastisch unabhängigen Zufallsvariablen[Bearbeiten]

Wenn die Zufallsvariablen X_i stochastisch voneinander unabhängig und integrierbar sind, gilt:

\operatorname{E}\!\left(\prod_{i=1}^n X_{i}\right) = \prod_{i=1}^n \operatorname{E}(X_{i})

insbesondere auch

 \operatorname{E}\!\left(X_iX_j\right) = \operatorname{E}\!\left(X_i\right) \cdot \operatorname{E}\!\left(X_j\right) für i \neq j

Wahrscheinlichkeiten als Erwartungswerte[Bearbeiten]

Wahrscheinlichkeiten von Ereignissen lassen sich auch über den Erwartungswert ausdrücken. Für jedes Ereignis A gilt

\operatorname{P}(A) = \operatorname{E}(\chi_A)\,,

wobei \chi_A die Indikatorfunktion von A ist.

Dieser Zusammenhang ist oft nützlich, etwa zum Beweis der Tschebyschow-Ungleichung.

Erwartungswerte von Funktionen von Zufallsvariablen[Bearbeiten]

Wenn Y=g(X) wieder eine Zufallsvariable ist, so kann man den Erwartungswert von Y, statt mittels der Definition, auch mittels der Formel

\operatorname{E}(Y)=\operatorname{E}(g(X))=\int_{-\infty}^\infty g(x) f_X(x)\,\mathrm{d}x

berechnen. Auch in diesem Fall existiert der Erwartungswert nur, wenn

\int_{-\infty}^\infty \left| g(x) \right| f_X(x)\,\mathrm{d}x

konvergiert.

Bei einer diskreten Zufallsvariablen verwendet man eine Summe:

\operatorname{E}(Y)=\operatorname{E}(g(X))=\sum_i g(x_i)  p_X(x_i).

Ist die Summe nicht endlich, dann muss die Reihe absolut konvergieren, damit der Erwartungswert existiert.

Begriff und Notation[Bearbeiten]

Das Konzept des Erwartungwertes geht auf Christiaan Huygens zurück. In einer Abhandlung über Glücksspiele von 1656, „Van rekeningh in spelen van geluck“ bezeichnet Huygens den erwarteten Gewinn eines Spiels als „het is my soo veel weerdt“. Frans van Schooten verwendete in seiner Übersetzung von Huygens' Text ins Lateinische den Begriff expectatio. Bernoulli übernahm in seiner Ars conjectandi den von van Schoten eingeführten Begriff in der Form valor expectationis.[2]

Im westlichen Bereich wird für den Operator  \operatorname{E}\left(X\right) verwendet, speziell in anglophoner Literatur \operatorname{E}\left[X\right]. In der russischsprachigen Literatur finden sich Bezeichnungen M(X). Die Bezeichnung \mu_X betont die Eigenschaft als nicht vom Zufall abhängiges erstes Moment. In der Physik findet die Bra-Ket-Notation Verwendung.[3] Insbesondere wird \langle X \rangle statt \operatorname{E}(X) für den Erwartungswert einer Größe X geschrieben.

Quantenmechanischer Erwartungswert[Bearbeiten]

Ist \psi(r,t)=\langle r|\psi(t)\rangle die Wellenfunktion eines Teilchens in einem bestimmten Zustand |\psi(t)\rangle und ist \hat O ein Operator, so ist

\langle \hat O \rangle_{|\psi(t)\rangle}:=
\langle\psi(t)|\hat O |\psi(t)\rangle=
\int_{M^2} \mathrm{d}^n r\, \mathrm{d}^n r^\prime\, \psi^\star (r,t)\langle r|\hat O|r^\prime\rangle\psi(r^\prime,t)

der quantenmechanische Erwartungswert von \hat O im Zustand |\psi(t)\rangle. M ist hierbei der Ortsraum, in dem sich das Teilchen bewegt, n ist die Dimension von M, und ein hochgestellter Stern steht für komplexe Konjugation.

Lässt sich \hat O als formale Potenzreihe O(\hat r,\hat p) schreiben (und das ist oft so), so verwendet man die Formel

\langle \hat O\rangle_\psi = \int_M \mathrm{d}^n r\, \psi^\star(r,t) O(r,\frac{\hbar}{i}\nabla_r)\psi(r,t).

Der Index an der Erwartungswertsklammer wird nicht nur wie hier abgekürzt, sondern manchmal auch ganz weggelassen.

Beispiel

Der Erwartungswert des Aufenthaltsorts in Ortsdarstellung ist

\langle\hat r\rangle =
\int_M \mathrm{d}^n r\, \psi^\star(r,t)r\psi(r,t)=
\int_M \mathrm{d}^n r\, r|\psi(r,t)|^2 =\int_M \mathrm{d}^n r\, rf(r,t).

Der Erwartungswert des Aufenthaltsorts in Impulsdarstellung ist

\langle\hat r\rangle =
\int_M \mathrm{d}^n p\,\Psi^\star(p,t)i\hbar\vec\nabla_p\Psi(p,t),

wobei wir die Wahrscheinlichkeitsdichtefunktion der Quantenmechanik im Ortsraum identifiziert haben. In der Physik schreibt man \rho (rho) statt f.

Erwartungswert von Matrizen[Bearbeiten]

Ist X eine m \times n Matrix, dann ist der Erwartungswert der Matrix definiert als:


\operatorname{E}\left(X\right)
=
\operatorname{E}\left(
\begin{bmatrix}
 x_{1,1} & x_{1,2} & \cdots & x_{1,n} \\
 x_{2,1} & x_{2,2} & \cdots & x_{2,n} \\
 \vdots \\
 x_{m,1} & x_{m,2} & \cdots & x_{m,n}
\end{bmatrix}\right)
=
\begin{bmatrix}
 \operatorname{E}(x_{1,1}) & \operatorname{E}(x_{1,2}) & \cdots & \operatorname{E}(x_{1,n}) \\
 \operatorname{E}(x_{2,1}) & \operatorname{E}(x_{2,2}) & \cdots & \operatorname{E}(x_{2,n}) \\
 \vdots \\
 \operatorname{E}(x_{m,1}) & \operatorname{E}(x_{m,2}) & \cdots & \operatorname{E}(x_{m,n})
\end{bmatrix}

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

  • Erich Härtter: Wahrscheinlichkeitsrechnung für Wirtschafts- und Naturwissenschaftler. Vandenhoeck & Ruprecht, Göttingen 1974, ISBN 3-525-03114-9
  • Norbert Henze: Stochastik für Einsteiger. 10. Auflage. Springer Spektrum, Wiesbaden 2013, ISBN 978-3-658-03076-6, S.78, S.181, S. 301, S. 317.

Einzelnachweise[Bearbeiten]

  1. H. Wirths : Der Erwartungswert - Skizzen zur Begriffsentwicklung von Klasse 8 bis 13. In : Mathematik in der Schule 1995/Heft 6, S. 330-343
  2. Norbert Henze: Stochastik für Einsteiger. Vieweg+Teubner, 2008. ISBN 978-3-8348-9465-6. S. 79.
  3. John Aldrich: Earliest Uses of Symbols in Probability and Statistics. [1].