Wahrscheinlichkeitserzeugende Funktion

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

In der Wahrscheinlichkeitstheorie ist die wahrscheinlichkeitserzeugende Funktion einer Zufallsvariable X, die nur natürliche Zahlen als Werte annimmt, die erzeugende Funktion ihrer Wahrscheinlichkeitsfunktion. Sie ist also die Potenzreihe mit den Wahrscheinlichkeiten P[X=k] als Koeffizienten. Die Verteilung von X ist durch die wahrscheinlichkeitserzeugende Funktion eindeutig bestimmt. Auf diese Weise kann das Rechnen mit diskreten Zufallsvariablen auf das Rechnen mit Potenzreihen zurückgeführt werden. Beispielsweise ist die wahrscheinlichkeitserzeugende Funktion einer Summe unabhängiger Zufallsvariabler gleich dem Produkt ihrer wahrscheinlichkeitserzeugenden Funktionen.

Definition[Bearbeiten]

Für eine Zufallsvariable X mit Werten in \mathbb{N}_0 ist ihre wahrscheinlichkeitserzeugende Funktion m_X definiert als

m_X(t):=\operatorname E\left[t^{X}\right]=\sum_{k=0}^{\infty} t^k P[X=k] für t \in [0,1].

Dabei ist 0^0 := 1 gesetzt.

Eigenschaften[Bearbeiten]

  • Die wahrscheinlichkeitserzeugende Funktion bestimmt die Verteilung von X eindeutig:
Sind X und Y \mathbb{N}_{0}-wertige Zufallsvariable mit m_X (t) = m_Y (t) für alle t \in [0,c] mit einem c > 0, dann folgt P[X=k] = P[Y=k] für alle k \in \mathbb{N}_0.
Es gilt dann nämlich nach der Taylor-Formel für alle k \in \mathbb{N}_0
P[X = k] = \dfrac{ m_{X}^{(k)} (0) }{k!} = \dfrac{ m_{Y}^{(k)} (0) }{k!} = P[Y = k].
Dieser Zusammenhang zeigt, dass m_X die Wahrscheinlichkeiten P[X=k] „erzeugt“.
  • Sind X und Y unabhängige \mathbb{N}_{0}-wertige Zufallsvariable, so gilt für die wahrscheinlichkeitserzeugende Funktion von X + Y
m_{X+Y}(t) = \operatorname{E}(t^{X+Y}) = \operatorname{E}(t^X \cdot t^Y) = \operatorname{E}(t^X) \cdot \operatorname{E}(t^Y) = m_X(t) \cdot m_Y(t),
denn mit X und Y sind auch t^X und t^Y unabhängig.
Das lässt sich direkt auf endliche Summen unabhängiger Zufallsvariabler verallgemeinern: Sind X_1 , \ldots , X_n unabhängige \mathbb{N}_{0}-wertige Zufallsvariable, dann gilt für S_n = \sum_{i=1}^n X_i
m_{S_n} (t)= \prod_{i=1}^n m_{X_i} (t) .
  • Für eine \mathbb{N}_{0}-wertige Zufallsvariable X mit endlichem k-ten Moment, k \in \mathbb{N}_0, ist
\operatorname E\left[ \binom{X}{k} \right] = \dfrac{ m_{X}^{(k)} (1) }{k!}.
Damit lassen sich insbesondere der Erwartungswert und die Varianz einer \mathbb{N}_{0}-wertigen Zufallsvariablen aus ihrer wahrscheinlichkeitserzeugenden Funktion ermitteln:
\operatorname{E}\left[X \right] = m_X'(1),
\operatorname{Var} \left[ X \right] = \operatorname E\left[X(X-1)\right] + \operatorname E\left[X \right] - \operatorname E\left[X \right]^2 =  m_X''(1) + m_X (1) - m_X'(1)^2.

Beispiele[Bearbeiten]

  • Für eine Bernoulli-verteilte Zufallsvariable X mit P[X=1] = p und P[X=0] = 1-p gilt m_X(t) = 1-p + p t.
  • Da eine binomialverteilte Zufallsvariable X mit den Parametern n und p als Summe von unabhängigen Bernoulli-verteilten Zufallsvariablen geschrieben werden kann, folgt m_X(t) = (1-p + p t)^n.
  • Ist X gleichverteilt auf \{1,\dotsc,n\}, dann gilt
m_x(t) = \sum_{k=1}^n \frac{1}{n} t^k = \frac{t^{n+1} - t}{n(t-1)}.
m_X(t) = \sum_{k=0}^\infty e^{-\lambda} \frac{\lambda^k}{k!} t^k = e^{-\lambda} e^{\lambda t} = e^{\lambda(t-1)}.

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

  • Klaus D. Schmidt: Maß und Wahrscheinlichkeit. Springer, Berlin Heidelberg 2009, ISBN 978-3-540-89729-3, S. 370 ff.