Zentraler Grenzwertsatz

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Annäherung von symmetrischen (oben) und schiefen (unten) Binomialverteilungen (rot) an die Normalverteilung (grün)

Bei den Zentralen Grenzwertsätzen handelt es sich um eine Familie schwacher Konvergenzaussagen aus der Wahrscheinlichkeitstheorie. Allen gemeinsam ist die Aussage, dass die Summe einer großen Zahl von unabhängigen Zufallsvariablen asymptotisch einer stabilen Verteilung folgt.[1] Bei endlicher und positiver Varianz der Zufallsvariablen ist die Summe annähernd normalverteilt, was die Sonderstellung der Normalverteilung erklärt.

Die wichtigste und bekannteste Aussage wird auch einfach als Der Zentrale Grenzwertsatz bezeichnet und befasst sich mit unabhängigen, identisch verteilten Zufallsvariablen, deren Erwartungswert und Varianz endlich sind. Diese Aussage ist auch bekannt als Grenzwertsatz von Lindeberg/Lévy.

Es existieren verschiedene Verallgemeinerungen, für die eine identische Verteilung keine notwendige Voraussetzung ist. Stattdessen wird dann eine andere Voraussetzung gefordert, die sicherstellt, dass keine der Variablen zu großen Einfluss auf das Ergebnis erhält. Beispiele sind die Lindeberg-Bedingung und die Ljapunow-Bedingung. Darüber hinausgehende Verallgemeinerungen gestatten sogar „schwache“ Abhängigkeit der Zufallsvariablen.

Die Bezeichnung geht auf G. Pólyas Arbeit Über den zentralen Grenzwertsatz der Wahrscheinlichkeitsrechnung und das Momentenproblem von 1920 zurück.[2]

Der Zentrale Grenzwertsatz der Statistik bei identischer Verteilung[Bearbeiten]

Sei X_1, X_2, X_3,\dots eine Folge von Zufallsvariablen, die auf demselben Wahrscheinlichkeitsraum alle dieselbe Verteilung aufweisen und unabhängig sind (u.i.v. = unabhängig und identisch verteilt, engl. i.i.d. = independent and identically distributed). Sei weiter angenommen, dass sowohl der Erwartungswert \mu als auch die Standardabweichung \sigma > 0 existieren und endlich sind.

Betrachten wir nun die n-te Teilsumme dieser Zufallsvariablen S_n = X_1 + X_2 +\cdots + X_n. Der Erwartungswert von S_n ist n\mu und die Varianz ist n \sigma^2. Bildet man daraus die standardisierte Zufallsvariable

Z_n = \frac{S_n - n \mu}{\sigma \sqrt{n}},

dann besagt der Zentrale Grenzwertsatz, dass die Verteilungsfunktion von Z_n für n \to \infty punktweise gegen die Verteilungsfunktion der Standardnormalverteilung N(0,1) konvergiert. Dies entspricht genau dem Begriff der Konvergenz in Verteilung in der Stochastik. Ist \Phi(z) die Verteilungsfunktion von N(0,1), dann bedeutet dies, dass für jedes reelle z

\lim_{n \to \infty} \mbox{P}(Z_n \le z) = \Phi(z).

In etwas anderer Schreibweise erhält man

\lim_{n\rightarrow\infty}\mbox{P}\left(\frac{\overline{X}_n-\mu}{\sigma/\sqrt{n}}\leq z\right)=\Phi(z),

wobei

\overline{X}_n=\frac {S_n} n=\frac {X_1+\cdots+X_n} n

der Mittelwert der ersten n Summanden der Zufallsvariablen ist.

Bemerkungen[Bearbeiten]

  • Der Zentrale Grenzwertsatz kann aber auch elementar, das heißt ohne das tiefliegende Hilfsmittel der charakteristischen Funktion, bewiesen werden. Dazu werden Erwartungswerte der Form E(f(Z_n)) untersucht, die einerseits im Fall einer Indikatorfunktion eines abgeschlossenen Intervalls [a,b] der Wahrscheinlichkeit P(a \le Z_n \le b) entsprechen und andererseits in Fällen einer genügend glatten Funktion f gut approximiert werden können. Dieses Verfahren eines elementaren Beweises stammt von Jarl Waldemar Lindeberg.[3]
  • Endliche Stichprobenumfänge lassen die Frage nach der Konvergenzgüte aufsteigen. Unter bestimmten Bedingungen liefert der Satz von Berry-Esseen eine Antwort: Existiert das dritte zentrierte Moment \operatorname{E}((X_1-\mu)^3) und ist es endlich, dann ist die Konvergenz zur Normalverteilung gleichmäßig und die Konvergenzgeschwindigkeit wenigstens von der Ordnung 1/{\sqrt {n}}.
  • Da für stochastisch unabhängige normalverteilte Zufallsvariablen die Summe wieder normalverteilt ist, gilt für diese der zentrale Grenzwertsatz im Endlichen, genauer ist Z_n für jedes n bereits N(0,1) verteilt.

Einzelnachweise[Bearbeiten]

  1.  John P. Nolan: Stable Distributions - Models for Heavy Tailed Data. Birkhauser, Boston 2011, S. 22 (http://academic2.american.edu/~jpnolan/stable/stable.html).
  2. Jeff Miller: Earliest Known Uses of Some of the Words of Mathematics.
    George Pólya: Über den zentralen Grenzwertsatz der Wahrscheinlichkeitsrechnung und das Momentenproblem, Mathematische Zeitschrift, 8, 1920, S. 171-181 (online)
  3. Jarl Waldemar Lindeberg: Eine neue Herleitung des Exponentialgesetzes in der Wahrscheinlichkeitsrechnung, Mathematische Zeitschrift, Band 15, 1922, S. 211-225 (Online-Version).
    Siehe auch Jörg Bewersdorff: Statistik – wie und warum sie funktioniert. Ein mathematisches Lesebuch. Vieweg+Teubner Verlag 2011, ISBN 978-3834817532, doi:10.1007/978-3-8348-8264-6, S. 139-146.

Siehe auch[Bearbeiten]

Weblinks[Bearbeiten]