Wahrscheinlichkeitserzeugende Funktion

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

In der Wahrscheinlichkeitstheorie ist die wahrscheinlichkeitserzeugende Funktion einer Zufallsvariable X, die nur natürliche Zahlen als Werte annimmt, die erzeugende Funktion ihrer Wahrscheinlichkeitsfunktion. Sie ist also die Potenzreihe mit den Wahrscheinlichkeiten P[X=k] als Koeffizienten. Die Verteilung von X ist durch die wahrscheinlichkeitserzeugende Funktion eindeutig bestimmt. Auf diese Weise kann das Rechnen mit diskreten Zufallsvariablen auf das Rechnen mit Potenzreihen zurückgeführt werden. Beispielsweise ist die wahrscheinlichkeitserzeugende Funktion einer Summe unabhängiger Zufallsvariabler gleich dem Produkt ihrer wahrscheinlichkeitserzeugenden Funktionen.

Definition[Bearbeiten]

Ist  P ein Wahrscheinlichkeitsmaß auf  (\mathbb{N}_0,\mathcal{P}(\mathbb{N}_0)) mit Wahrscheinlichkeitsfunktion \rho(k) = P(\{k\}), so heißt

 m_P(t)= \sum_{k=0}^\infty \rho(k)t^k

die wahrscheinlichkeitserzeugende Funktion von  P .

Für eine Zufallsvariable X mit Werten in \mathbb{N}_0 ist ihre wahrscheinlichkeitserzeugende Funktion m_X definiert als

m_X(t):=m_{P \circ X^{-1}}(t)=\sum_{k=0}^{\infty} t^k P[X=k]=\operatorname E\left[t^{X}\right] für t \in [0,1].

Somit ist die wahrscheinlichkeitserzeugende Funktion einer Zufallsvariable genau die wahrscheinlichkeitserzeugende Funktion ihrer Verteilung. Bei allen Definitionen ist 0^0 := 1 gesetzt.

Eigenschaften[Bearbeiten]

Eigenschaften als Funktion[Bearbeiten]

Eine wahrscheinlichkeitserzeugende Funktion ist auf dem Intervall  [ 0,1 ] stetig, konvex und monoton. Außerdem ist  m_X(1)=1 . Dies folgt aus den Eigenschaften von Potenzreihen.

Umkehrbarkeit[Bearbeiten]

Die wahrscheinlichkeitserzeugende Funktion bestimmt die Verteilung von X eindeutig:

Sind X und Y \mathbb{N}_{0}-wertige Zufallsvariable mit m_X (t) = m_Y (t) für alle t \in [0,c] mit einem c > 0, dann folgt P[X=k] = P[Y=k] für alle k \in \mathbb{N}_0.

Es gilt dann nämlich nach der Taylor-Formel für alle k \in \mathbb{N}_0

P[X = k] = \dfrac{ m_{X}^{(k)} (0) }{k!} = \dfrac{ m_{Y}^{(k)} (0) }{k!} = P[Y = k].

Dieser Zusammenhang zeigt, dass m_X die Wahrscheinlichkeiten P[X=k] „erzeugt“ und die Wahrscheinlichkeitsfunktion aus der wahrscheinlichkeitserzeugenden Funktion rekonstruiert werden kann.

Summen von Zufallsvariablen[Bearbeiten]

Sind X und Y unabhängige \mathbb{N}_{0}-wertige Zufallsvariable, so gilt für die wahrscheinlichkeitserzeugende Funktion von X + Y

m_{X+Y}(t) = \operatorname{E}(t^{X+Y}) = \operatorname{E}(t^X \cdot t^Y) = \operatorname{E}(t^X) \cdot \operatorname{E}(t^Y) = m_X(t) \cdot m_Y(t),

denn mit X und Y sind auch t^X und t^Y unabhängig. Das lässt sich direkt auf endliche Summen unabhängiger Zufallsvariabler verallgemeinern: Sind X_1 , \ldots , X_n unabhängige \mathbb{N}_{0}-wertige Zufallsvariable, dann gilt für S_n = \sum_{i=1}^n X_i

m_{S_n} (t)= \prod_{i=1}^n m_{X_i} (t) .

Momenterzeugung[Bearbeiten]

Für eine \mathbb{N}_{0}-wertige Zufallsvariable X ist

\operatorname E\left[ \binom{X}{k} \right] = \dfrac{ \lim_{t \uparrow 1} m_{X}^{(k)} (t) }{k!}.

Dabei sind beide Seiten der Gleichung genau dann endlich, wenn  \operatorname{E}  \left[X^k \right] endlich ist.

Damit lassen sich insbesondere der Erwartungswert und die Varianz einer \mathbb{N}_{0}-wertigen Zufallsvariablen aus ihrer wahrscheinlichkeitserzeugenden Funktion ermitteln:

\operatorname{E}\left[X \right] =  \lim_{t \uparrow 1} m_X'(t),
\operatorname{Var} \left[ X \right] = \operatorname E\left[X(X-1)\right] + \operatorname E\left[X \right] - \operatorname E\left[X \right]^2 =   \lim_{t \uparrow 1} \left( m_X''(t) + m_X'(t) - m_X'(t)^2 \right).

Die Betrachtung des linksseitigen Grenzwertes ist hier notwendig, da die Differenzierbarkeit von Potenzreihen auf dem Rande des Konvergenzradius nicht notwendigerweise gegeben ist.

Lineare Transformation von Zufallsvariablen[Bearbeiten]

Lineare Transformationen der Zufallsvariable wirken wie folgt auf die wahrscheinlichkeitserzeugende Funktion:

 m_{aX+b}(t)=t^bm_X(t^a) .

Wahrscheinlichkeitserzeugende Funktionen von zufälligen Summen[Bearbeiten]

Mittels wahrscheinlichkeitserzeugenden Funktionen lassen sich leicht Summen über eine zufällige Anzahl von Summanden berechnen. Sind  (X_i)_{i \in \mathbb{N}_0} unabhängig identisch verteilte Zufallsvariablen mit Werten in  \mathbb{N}_0 und  T eine weitere, von allen X_i unabhängige Zufallsvariable mit demselben Wertebereich. Dann hat die Zufallsvariable

 Z=\sum_{i=0}^TX_i

die wahrscheinlichkeitserzeugende Funktion

 m_Z(t)=m_T(m_{X_i}(t))

für ein beliebiges i. Diese Eigenschaft macht man sich zum Beispiel bei der Analyse des Galton-Watson-Prozesses zunutze. Nach den obigen Regeln für die Berechnung des Erwartungswertes gilt dann mit der Kettenregel

 \operatorname{E}(Z)=\operatorname{E}(T) \cdot \operatorname{E}(X_1) ,

was der Formel von Wald entspricht.

Für die Varianz gilt dann

 \operatorname{Var}(Z)=\operatorname{Var}(T)\operatorname{E}(X_1)^2+\operatorname{E}(T)\operatorname{Var}(X_1) .

Dies ist genau die Blackwell-Girshick-Gleichung. Auch sie folgt mittels den obigen Regeln zur Bestimmung der Varianz und der Produktregel.

Multivariate wahrscheinlichkeitserzeugende Funktion[Bearbeiten]

Ist  X=(X_1, \dots , X_k) ein k-dimensionaler Zufallsvektor mit Werten in \mathbb{N}_0^k, so ist die wahrscheinlichkeitserzeugende Funktion von  X definiert als

 m_X(t):=m_X(t_1,\dots, t_k)=\operatorname{E} \left( \prod_{i=1}^kt_i^{X_i}\right)=\sum_{x_1,\ldots,x_k=0}^{\infty}\rho(x_1,\ldots,x_k)t_1^{x_1} \dots  t_k^{x_k}

mit \rho(x_1,\ldots,x_k) = P(X_1 = x_1, \dotsc, X_k = x_k).

Erwartungswert, Varianz und Kovarianz[Bearbeiten]

Analog zum eindimensionalen Fall gilt

 \operatorname{E}(X_i)=\frac{\partial m_X}{\partial t_i}(1,\dots, 1) \quad \forall i \in \{1,\dots,k\}

sowie

 \operatorname{Var}(X_i)=\frac{\partial^2 m_X}{{\partial t_i}^2}(1,\dots, 1)+ \frac{\partial m_X}{\partial t_i}(1,\dots, 1)\left( 1- \frac{\partial m_X}{\partial t_i}(1,\dots, 1)\right) \quad \forall i \in \{1,\dots,k\}

und

 \operatorname{Cov}(X_i,X_j)=\frac{\partial^2 m_X}{\partial t_i \partial t_j}(1,\dots, 1) -\frac{\partial m_X}{\partial t_i}(1,\dots, 1)\cdot \frac{\partial m_X}{\partial t_j}(1,\dots, 1)\quad \forall i,j \in \{1,\dots,k\}

Beispiele[Bearbeiten]

In der Tabelle sind einige wahrscheinlichkeitserzeugende Funktionen von gängigen diskreten Verteilungen aufgeführt.

Verteilung Wahrscheinlichkeitserzeugende Funktion  m_X(t)
Bernoulli-Verteilung m_X(t) = 1-p + p t
Zweipunktverteilung  m_X(t)=qt^a+bt^b
Binomialverteilung  B(n,p) m_X(t) = (1-p + p t)^n
Geometrische Verteilung  G(p) m_X(t) = \frac{p}{1 - (1-p)t}
Negative Binomialverteilung  NB (r,p) m_X(t) = \left(\frac{p}{1 - (1-p)t}\right)^r
Diskrete Gleichverteilung auf \{1,\dotsc,n\} m_X(t) = \sum_{k=1}^n \frac{1}{n} t^k = \frac{t^{n+1} - t}{n(t-1)}
Logarithmische Verteilung m_{X}(t) = \frac{\ln(1-pt)}{\ln(1-p)}
Poisson-Verteilung  P_\lambda m_{X}(t) = \mathrm{e}^{\lambda(t-1)}
Verallgemeinerte Binomialverteilung  GB (p) m_{X}(t)=\prod\limits_{j=1}^n (1-{p_j}+{p_j}{t})
Multivariate Verteilungen
Multinomialverteilung m_X(t)=\biggl( \sum_{i=1}^k p_i t_i \biggr)^n

Insbesondere ist die wahrscheinlichkeitserzeugende Funktion der Binomialverteilung gleich dem n-fachen Produkt der wahrscheinlichkeitserzeugenden Funktion der Bernoulli-Verteilung, da die Binomialverteilung genau die Summe von unabhängigen Bernoulli-Verteilungen ist. Dasselbe gilt für die geometrische Verteilung und die negative Binomialverteilung.

Zusammenhang mit weiteren erzeugenden Funktionen[Bearbeiten]

Die wahrscheinlichkeitserzeugende Funktion einer Zufallsvariable  X mit Wahrscheinlichkeitsfunktion  p ist ein Spezialfall einer erzeugenden Funktion mit  a_i=p({i}) für  i \in \mathbb{N}_0 . Außer der wahrscheinlichkeitserzeugenden Funktion gibt es noch zwei weitere erzeugende Funktionen in der Stochastik, die aber nicht nur für diskrete Verteilungen definiert werden. Die momenterzeugende Funktion ist definiert als  M_X(t):=\operatorname{E}(e^{tX}). Demnach gilt  m_X(e^t)=M_X(t) Die charakteristische Funktion ist definiert als  \varphi_X(t):=\operatorname{E}(e^{itX}). Demnach gilt  m_X(e^{it})=\varphi_X(t) .

Außerdem gibt es noch die kumulantenerzeugende Funktion als logarithmus der momenterzeugenden Funktion. Aus ihr wird der Begriff der Kumulante abgeleitet.

Literatur[Bearbeiten]

  • Klaus D. Schmidt: Maß und Wahrscheinlichkeit. Springer, Berlin Heidelberg 2009, ISBN 978-3-540-89729-3, S. 370 ff.