Kumulante

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Kumulanten sind in der Wahrscheinlichkeitstheorie und Statistik Kenngrößen der Verteilung einer Zufallsvariablen, die in Bezug auf die Summenbildung von stochastisch unabhängigen Zufallsvariablen einfachen Rechengesetzen genügen. Die Folge der Kumulanten beginnt mit dem Erwartungswert und der Varianz.

Definition[Bearbeiten]

Ist  M_X(t)  die momenterzeugende Funktion der Zufallsvariablen X, d.h. es ist

M_X(t)=E(e^{tX})\,,

so heißt die Funktion

 g_X(t)=\ln M_X(t)= \ln E(e^{tX})

Kumulantenerzeugende Funktion . Die n-te Kumulante \kappa_n der Verteilung von  X ist dann definiert durch

\kappa_n=\frac{\partial^n}{\partial t^n} g_X(t)\bigg|_{t=0}.

Alternativ lassen sich Kumulanten auch durch die charakteristische Funktion  G_X(t) einer Zufallsvariablen X definieren.

Die n-te Kumulante \kappa_n ist dann definiert durch

\kappa_n=\frac{1}{i^n}\frac{\partial^n}{\partial t^n}\ln G_X(t)\bigg|_{t=0}

Eigenschaften[Bearbeiten]

Verschiebungs-Invarianz[Bearbeiten]

Die Kumulanten werden auch als Semiinvarianten der Dichtefunktion p(x) bezeichnet, da sie sich, mit Ausnahme von \kappa_1, bei einer Verschiebung des Erwartungswertes nicht ändern. Sei X eine Zufallsvariable, dann gilt für eine beliebige Konstante c\in \mathbb R:

\kappa_1(X + c) = \kappa_1(X) + c\,
\kappa_n(X + c) = \kappa_n(X) ~ \text{ mit } ~ n \ge 2\,

Homogenität[Bearbeiten]

Die n-te Kumulante ist homogen vom Grad n, sei c eine beliebige Konstante, dann gilt:

\kappa_n(cX)=c^n\kappa_n(X)\,

Additivität[Bearbeiten]

Seien X_1 und X_2 stochastisch unabhängige Zufallsvariablen, dann gilt für Y=X_1+X_2

\kappa_{n}(Y)=\kappa_{n}(X_1)+\kappa_{n}(X_2)\,

Für unabhängige Zufallsvariablen ist die charakteristische Funktion ein Produkt G_{Y}(k)=G_{X_{1}}(k)\cdot G_{X_{2}}(k) und somit der Logarithmus eine Summe:

\ln G_{Y}(k)=\ln G_{X_{1}}(k)+\ln G_{X_{2}}(k)=\sum_{n=1}^{\infty}\frac{(\mathrm{i}k)^{n}}{n!}\left[\kappa_{n}(X_{1})+\kappa_{n}(X_{2})\right]=\sum_{n=1}^{\infty}\frac{(\mathrm{i}k)^{n}}{n!}\kappa_{n}(Y)

Für die Summe Y=\sum_{i=1}^{N}X_i aus N stochastisch unabhängigen Zufallsvariablen X_1, X_2, \dotsc, X_N gilt:

\kappa_{n}(Y)=\sum_{i=1}^{N}\kappa_{n}(X_i)\,

Besonderheit der Gauß-Verteilung[Bearbeiten]

Für eine Gauß-Verteilung ist die charakteristische Funktion gleich G(k)=\exp(\mathrm i m k-\sigma^2 k^2/2) und somit die Kumulanten:

\kappa_{1}=m\ ;\quad\kappa_{2}=\sigma^{2}\ ;\quad\kappa_{n\geq 3}=0

Alle Kumulanten größer als 2. Ordnung verschwinden. Diese Eigenschaft charakterisiert die Gauß-Verteilung.

Man kann zeigen, dass

  • entweder alle Kumulanten außer den ersten beiden verschwinden
  • oder unendlich viele nichtverschwindende Kumulanten existieren.

Anders ausgedrückt: Die Kumulanten generierende Funktion \ln G(k) kann kein endliches Polynom von Grad größer 2 sein.

Kumulanten und Momente[Bearbeiten]

Kumulanten als Funktion der Momente[Bearbeiten]

Bezeichne m_n das n-te Moment einer Zufallsvariablen X. Durch G(k) lässt sich m_n darstellen als

m_n=\frac{1}{i^n}\frac{\partial^n}{\partial k^n}G(k)\bigg|_{k=0}

Folglich lassen sich die Kumulanten durch die Momente m_n bzw. folgendermaßen ausdrücken:

\kappa_1=m_1\,
\kappa_2=m_2-m_1^2\,
\kappa_{3}=m_{3}-3m_{2}m_{1}+2m_{1}^{3}\,
\kappa_{4}=m_{4}-4m_{3}m_{1}-3m_{2}^{2}+12m_{2}m_{1}^{2}-6m_{1}^{4}\,
\kappa_{5}=m_{5}+5m_{1}(6m_{2}^{2}-m_{4})-10m_{3}m_{2}+20m_{3}m_{1}^{2}-60m_{2}m_{1}^{3}+24m_{1}^{5}\,

Im Allgemeinen lässt sich die Abhängigkeit der Kumulanten von den Momenten durch folgende Rekursionsformel beschreiben:

\kappa_{n}=m_{n}-\sum_{k=1}^{n-1}{n-1 \choose k-1}\kappa_{k}m_{n-k}

Alternativ lässt sich aus der Formel von Faà di Bruno die k-te Kumulante mittels der Bell-Polynome  B_{n,k} und der Momente  m_1, \dots, m_n darstellen als

 \kappa_n=\sum_{k=1}^n(k-1)!(-1)^{k+1}B_{n,k}(m_1, \dots, m_{n-k+1}) .

Mit den zentralen Momenten \mu_n sind die Formeln meist kürzer:

\kappa_1=m_1\,
\kappa_2=\mu_2\,
\kappa_3=\mu_3\,
\kappa_4=\mu_4-3\mu_2^2\,
\kappa_5=\mu_5-10\mu_3\mu_2\,
\kappa_6=\mu_6-15\mu_4\mu_2-10\mu_3^2+30\mu_2^3\,

Von besonderer Bedeutung sind die ersten beiden Kumulanten: \kappa_1 ist der Erwartungswert m_1=E(X) und \kappa_2 ist die Varianz \mu_2=V(X). Ab der vierten Ordnung stimmen Kumulante und zentrales Moment nicht mehr überein.

Herleitung der ersten Kumulanten[Bearbeiten]

Man entwickelt \ln G(k) um G(k)=1

\ln G(k)=\sum_{n=1}^{\infty}(-1)^{n+1}\frac{(G(k)-1)^{n}}{n}=(G(k)-1)-\frac{(G(k)-1)^{2}}{2}+\frac{(G(k)-1)^{3}}{3}\mp\dotsb

und setzt die Reihendarstellung von G(k)

G(k)=\sum_{n=0}^{\infty}\frac{(\mathrm{i}k)^{n}}{n!}m_n=1+\mathrm{i}km_{1}+\frac{(ik)^{2}}{2}m_{2}+\frac{(ik)^{3}}{6}m_{3}+\dotsb

in obige Entwicklung ein

\begin{align}
\ln G(k)= & \left[\mathrm{i}km_{1}+\frac{(ik)^{2}}{2}m_{2}+\frac{(ik)^{3}}{6}m_{3}+\dotsb\right]\\
 & -\frac{1}{2}\left[\mathrm{i}km_{1}+\frac{(ik)^{2}}{2}m_{2}+\dotsb\right]^{2}\\
 & +\frac{1}{3}\left[\mathrm{i}km_{1}+\frac{(ik)^{2}}{2}m_{2}+\dotsb\right]^{3}\mp\dotsb\\
= & \left[\mathrm{i}km_{1}+\frac{(ik)^{2}}{2}m_{2}+\frac{(ik)^{3}}{6}m_{3}+\dotsb\right]\\
 & -\frac{1}{2}\left[(\mathrm{i}k)^{2}m^{2}_{1}+2\frac{(ik)^{3}}{2}m_{1}m_{2}+\frac{(ik)^{4}}{4}m^{2}_{2}+\dotsb\right]\\
 & +\frac{1}{3}\left[(\mathrm{i}k)^{3}m^{3}_{1}+2\frac{(ik)^{4}}{2}m^{2}_{1}m_{2}+2\frac{(ik)^{5}}{4}m_{1}m^{2}_{2}+\frac{(ik)^{6}}{8}m^{3}_{2}+\dotsb\right]\mp\dotsb\end{align}

Sortiert man noch nach Potenzen von k, so erhält man die Kumulanten:

\ln G(k)=\mathrm{i}k\underbrace{\left[m_{1}\right]}_{\kappa_{1}}+\frac{(ik)^{2}}{2}\underbrace{\left[m_{2}-m^{2}_{1}\right]}_{\kappa_{2}}+\frac{(ik)^{3}}{6}\underbrace{\left[m_{3}-3m_{1}m_{2}+2m^{3}_{1}\right]}_{\kappa_{3}}+\dotsb

Momente als Funktion der Kumulanten[Bearbeiten]

Das n-te Moment ist ein Polynom n-ten Grades der ersten n Kumulanten. Hier die ersten sechs Momente:

m_1=\kappa_1\,
m_2=\kappa_2+\kappa_1^2\,
m_3=\kappa_3+3\kappa_2\kappa_1+\kappa_1^3\,
m_4=\kappa_4+4\kappa_3\kappa_1+3\kappa_2^2+6\kappa_2\kappa_1^2+\kappa_1^4\,
m_5=\kappa_5+5\kappa_4\kappa_1+10\kappa_3\kappa_2+10\kappa_3\kappa_1^2+15\kappa_2^2\kappa_1+10\kappa_2\kappa_1^3+\kappa_1^5\,
m_6=\kappa_6+6\kappa_5\kappa_1+15\kappa_4\kappa_2+15\kappa_4\kappa_1^2+10\kappa_3^2+60\kappa_3\kappa_2\kappa_1+20\kappa_3\kappa_1^3+15\kappa_2^3+45\kappa_2^2\kappa_1^2+15\kappa_2\kappa_1^4+\kappa_1^6.\,

Die Koeffizienten entsprechen genau denjenigen in der Formel von Faà di Bruno. Allgemeiner ist das n-te Moment genau das nte vollständige Bell-Polynom  B_n ausgewertet an den stellen  \kappa_1, \dots, \kappa_n :

m_n=B_n(\kappa_1, \dots, \kappa_n) .

Um die zentralen Momente als Funktion der Kumulanten auszudrücken, vernachlässige in obigen Polynomen für die Momente alle Terme, bei denen \kappa_1 als Faktor auftaucht.

\mu_1=0\,
\mu_2=\kappa_2\,
\mu_3=\kappa_3\,
\mu_4=\kappa_4+3\kappa_2^2\,
\mu_5=\kappa_5+10\kappa_3\kappa_2\,
\mu_6=\kappa_6+15\kappa_4\kappa_2+10\kappa_3^2+15\kappa_2^3.\,

Folgerungen[Bearbeiten]

Gegeben seien die identisch verteilten und stochastisch unabhängigen Zufallsvariablen X_1, X_2, \dotsc, X_N.

Zentraler Grenzwertsatz[Bearbeiten]

Für die Zufallsvariable

Y=\frac{1}{\sqrt{N}}(X_{1}+X_{2}+\dotsb+X_{N})\,

ergeben sich unter Ausnutzung der Eigenschaften Homogenität und Additivität folgende Kumulanten:

\kappa_{n}(Y)=\frac{1}{\sqrt{N}^{n}} \sum_{i=1}^{N} \kappa_{n}(X_i) \approx \mathcal{O}(N^{1-n/2})\,

Die Ordnung ergibt sich, da die Summe über die Einzelkumulanten \sum_{i=1}^{N}\kappa_{n} von der Ordnung \mathcal{O}(N) ist. Hier die Ordnungen der ersten Kumulanten:

\kappa_{1}(Y)=\mathcal{O}(N^{1/2})\ ,\quad\kappa_{2}(Y)=\mathcal{O}(N^{0})\ ,\quad\kappa_{3}(Y)=\mathcal{O}(N^{-1/2})\ ,\quad\kappa_{4}(Y)=\mathcal{O}(N^{-1})

Für n\geq 3 ist die Ordnung N hoch einem negativen Exponenten und somit gilt im Grenzwert unendlich vieler Zufallsvariablen:

\lim_{N\to\infty}\kappa_{n}(Y)=0\quad\text{mit}\quad n\geq3

D. h. es bleiben nur die beiden ersten Kumulanten bzw. die beiden ersten Momente übrig. Die einzige Verteilung, die nur die erste und zweite Kumulante besitzt, ist die Gauß-Verteilung. Damit wird plausibel, dass die Summe beliebiger Zufallsvariablen geteilt durch die Wurzel der Anzahl gegen die Gauß-Verteilung konvergiert; dies ist der Zentrale Grenzwertsatz. Um diese Plausibilitätsbetrachtung zu einem Beweis zu vervollständigen, bedarf es der Verwendung allgemeiner Gesetzmäßigkeiten von charakteristischen Funktionen. Die Gauß-Verteilung nimmt also eine besondere Stellung unter allen Verteilungen ein. Wirken bei einem Experiment viele stochastisch unabhängige Einflüsse, so kann man die Gesamtheit der Einflüsse durch eine Gaußsche Zufallsvariable darstellen.

Als einfachen Spezialfall betrachte alle Zufallsvariablen als identisch X_i=X mit Mittelwert 0, Varianz \sigma^2 und beliebigen höheren Momenten.

\kappa_{1}(Y)=\frac{1}{\sqrt{N}}\sum_{i=1}^{N}0=0\ ,\quad\kappa_{2}(Y)=\frac{1}{N}\sum_{i=1}^{N}\sigma^{2}=\sigma^{2}\ ,\quad\kappa_{3}(Y)=\frac{1}{\sqrt{N}^3}\sum_{i=1}^{N}\kappa_{3}(X) =\frac{\kappa_{3}(X)}{\sqrt{N}} \underset{N\to\infty}{\longrightarrow}0

Für die Zufallsvariable Z

Z:=Y-E(Y)=\frac{1}{\sqrt{N}}(X_{1}-E(X_{1})+X_{2}-E(X_{2})+\dotsb+X_{N}-E(X_{N}))\,

kann man gegenüber Y die Verschiebungsinvarianz der Kumulanten der Ordnung größer gleich 2 ausnutzen. Der einzige Unterschied zur Zufallsvariablen Y ist, dass Erwartungswert von Z Null ist, auch dann wenn die Erwartungswerte der X_i nicht verschwinden.

\begin{align}
\kappa_{1}(Z) & =\frac{1}{\sqrt{N}}\sum_{i=1}^{N}\underbrace{\kappa_{1}(X_{i}-E(X_{i}))}_{E(X_{i})-E(X_{i})}=0\\
\kappa_{2}(Z) & =\frac{1}{N}\sum_{i=1}^{N}\kappa_{2}(X_{i}-E(X_{i}))=\frac{1}{N}\sum_{i=1}^{N}\kappa_{2}(X_{i})=\kappa_{2}(Y)=\frac{1}{N}\sum_{i=1}^{N}\sigma_{i}^{2}\overset{\text{ Spezialfall }}{\underset{\sigma_{i}=\sigma,\,\forall i}{=}}\sigma^{2}\\
\kappa_{3}(Z) & =\frac{1}{\sqrt{N}^{3}}\sum_{i=1}^{N}\kappa_{3}(X_{i}-E(X_{i}))=\frac{1}{\sqrt{N}^{3}}\sum_{i=1}^{N}\kappa_{3}(X_{i})=\kappa_{3}(Y)\underset{N\to\infty}{\longrightarrow}0\end{align}

Gesetz der großen Zahlen[Bearbeiten]

Für die Zufallsvariable

Y=\frac{1}{N}(X_{1}+X_{2}+\dotsb+X_{N})\,

ergeben sich unter Ausnutzung der Eigenschaften Homogenität und Additivität folgende Kumulanten:

\kappa_{n}(Y)=\frac{1}{N^{n}} \sum_{i=1}^{N} \kappa_{n}(X_i) \approx \mathcal{O}(N^{1-n})\,

Die Ordnung ergibt sich, da die Summe über die Einzelkumulanten \sum_{i=1}^{N}\kappa_{n} von der Ordnung \mathcal{O}(N) ist. Hier die Ordnungen der ersten Kumulanten:

\kappa_{1}(Y)=\mathcal{O}(N^{0})\ ,\quad\kappa_{2}(Y)=\mathcal{O}(N^{-1})\ ,\quad\kappa_{3}(Y)=\mathcal{O}(N^{-2})\ ,\quad\kappa_{4}(Y)=\mathcal{O}(N^{-3})

Für n\geq 2 ist die Ordnung N hoch einem negativen Exponenten und somit gilt im Grenzwert unendlich vieler Zufallsvariablen:

\lim_{N\to\infty}\kappa_{n}(Y)=0\quad\text{mit}\quad n\geq2

D. h. es bleibt nur die erste Kumulante bzw. das erste Moment übrig. Mit wachsendem N erhält man eine Gauß-Verteilung um den Mittelwert

\kappa_{1}(Y)=\frac{1}{N} \sum_{i=1}^{N} \kappa_{1}(X_i),

wobei die Breite von der Ordnung N^{-1} ist, und im Grenzfall N\to\infty einen scharfen (Delta-förmigen) Peak bei \kappa_1.

Als einfachen Spezialfall betrachte alle Zufallsvariablen als identisch X_i=X mit Mittelwert \mu, Varianz \sigma^2 und beliebigen höheren Momenten.

\kappa_{1}(Y)=\frac{1}{N}\sum_{i=1}^{N}m=m\ ,\quad\kappa_{2}(Y)=\frac{1}{N^{2}}\sum_{i=1}^{N}\sigma^{2}=\frac{\sigma^{2}}{N}\underset{N\to\infty}{\longrightarrow}0\ ,\quad\kappa_{3}(Y)=\frac{1}{N^{3}}\sum_{i=1}^{N}\kappa_{3}(X)=\frac{\kappa_{3}(X)}{N^{2}}\underset{N\to\infty}{\longrightarrow}0

Somit ist Y eine Zufallsvariable mit demselben Mittelwert wie X (man nennt Y erwartungstreuer Schätzer für den Mittelwert von X). Die für wachsende N immer schmaler werdende Breite der Gauß-Verteilung (Standardabweichung um Mittelwert) beträgt \sigma_Y=\sigma_X/\sqrt{N}.

Literatur[Bearbeiten]