Zentraler Grenzwertsatz

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Annäherung von symmetrischen (oben) und schiefen (unten) Binomialverteilungen (rot) an die Normalverteilung (grün)

Bei den Zentralen Grenzwertsätzen handelt es sich um eine Familie schwacher Konvergenzaussagen aus der Wahrscheinlichkeitstheorie. Allen gemeinsam ist die Aussage, dass die Summe einer großen Zahl von unabhängigen Zufallsvariablen asymptotisch einer stabilen Verteilung folgt.[1] Bei endlicher und positiver Varianz der Zufallsvariablen ist die Summe annähernd normalverteilt, was die Sonderstellung der Normalverteilung erklärt.

Die wichtigste und bekannteste Aussage wird auch einfach als Der Zentrale Grenzwertsatz bezeichnet und befasst sich mit unabhängigen, identisch verteilten Zufallsvariablen, deren Erwartungswert und Varianz endlich sind. Diese Aussage ist auch bekannt als Grenzwertsatz von Lindeberg/Lévy.

Es existieren verschiedene Verallgemeinerungen, für die eine identische Verteilung keine notwendige Voraussetzung ist. Stattdessen wird dann eine andere Voraussetzung gefordert, die sicherstellt, dass keine der Variablen zu großen Einfluss auf das Ergebnis erhält. Beispiele sind die Lindeberg-Bedingung und die Ljapunow-Bedingung. Darüber hinausgehende Verallgemeinerungen gestatten sogar „schwache“ Abhängigkeit der Zufallsvariablen.

Die Bezeichnung geht auf G. Pólyas Arbeit Über den zentralen Grenzwertsatz der Wahrscheinlichkeitsrechnung und das Momentenproblem von 1920 zurück.[2]

Der Zentrale Grenzwertsatz der Statistik bei identischer Verteilung[Bearbeiten | Quelltext bearbeiten]

Sei eine Folge von Zufallsvariablen, die auf demselben Wahrscheinlichkeitsraum mit dem Wahrscheinlichkeitsmaß alle dieselbe Wahrscheinlichkeitsverteilung aufweisen und unabhängig sind (u.i.v. = unabhängig und identisch verteilt, engl. i.i.d. = independent and identically distributed). Sei weiter angenommen, dass sowohl der Erwartungswert als auch die Standardabweichung existieren und endlich sind.

Betrachten wir nun die -te Teilsumme dieser Zufallsvariablen . Der Erwartungswert von ist und die Varianz ist . Bildet man daraus die standardisierte Zufallsvariable

dann besagt der Zentrale Grenzwertsatz, dass die Verteilungsfunktion von für punktweise gegen die Verteilungsfunktion der Standardnormalverteilung konvergiert. Dies entspricht genau dem Begriff der Konvergenz in Verteilung in der Stochastik. Ist die Verteilungsfunktion von , dann bedeutet dies, dass für jedes reelle

In etwas anderer Schreibweise erhält man

wobei

der Mittelwert der ersten n Summanden der Zufallsvariablen ist.

Bemerkungen[Bearbeiten | Quelltext bearbeiten]

  • Der Zentrale Grenzwertsatz kann aber auch elementar, das heißt ohne das tiefliegende Hilfsmittel der charakteristischen Funktion, bewiesen werden. Dazu werden Erwartungswerte der Form untersucht, die einerseits im Fall einer Indikatorfunktion eines abgeschlossenen Intervalls der Wahrscheinlichkeit entsprechen und andererseits in Fällen einer genügend glatten Funktion gut approximiert werden können. Dieses Verfahren eines elementaren Beweises stammt von Jarl Waldemar Lindeberg.[3]
  • Endliche Stichprobenumfänge lassen die Frage nach der Konvergenzgüte aufsteigen. Unter bestimmten Bedingungen liefert der Satz von Berry-Esseen eine Antwort: Existiert das dritte zentrierte Moment und ist es endlich, dann ist die Konvergenz zur Normalverteilung gleichmäßig und die Konvergenzgeschwindigkeit wenigstens von der Ordnung .
  • Da für stochastisch unabhängige normalverteilte Zufallsvariablen die Summe wieder normalverteilt ist, gilt für diese der zentrale Grenzwertsatz im Endlichen, genauer ist für jedes bereits N(0,1) verteilt.

Verallgemeinerungen[Bearbeiten | Quelltext bearbeiten]

Eine Verallgemeinerung des Zentralen Grenzwertsatzes ist der mehrdimensionale Zentrale Grenzwertsatz. Er liefert Aussagen über die Konvergenz der Verteilungen von Zufallsvektoren gegen die mehrdimensionale Standardnormalverteilung.

Eine weitere Verallgemeinerung ist der zentrale Grenzwertsatz von Lindeberg-Feller. Er lässt auch gewisse Abhängigkeiten zwischen den Zufallsvariablen zu, indem er sie zu Gruppen zusammenfasst und die Unabhängigkeit nur innerhalb dieser Gruppen fordert. Die Folge dieser Gruppen wird ein Schema von Zufallsvariablen genannt. Die Lindeberg-Bedingung und die Ljapunow-Bedingung lassen sich auch für Schemata von Zufallsvariablen formulieren und liefern damit Kriterien für die Konvergenz bei Verwendung von Schemata.

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. John P. Nolan: Stable Distributions - Models for Heavy Tailed Data. Birkhauser, Boston 2011, S. 22 (american.edu).
  2. Jeff Miller: Earliest Known Uses of Some of the Words of Mathematics.
    George Pólya: Über den zentralen Grenzwertsatz der Wahrscheinlichkeitsrechnung und das Momentenproblem, Mathematische Zeitschrift, 8, 1920, S. 171-181 (online)
  3. Jarl Waldemar Lindeberg: Eine neue Herleitung des Exponentialgesetzes in der Wahrscheinlichkeitsrechnung, Mathematische Zeitschrift, Band 15, 1922, S. 211-225 (Online-Version).
    Siehe auch Jörg Bewersdorff: Statistik – wie und warum sie funktioniert. Ein mathematisches Lesebuch. Vieweg+Teubner Verlag 2011, ISBN 978-3834817532, doi:10.1007/978-3-8348-8264-6, S. 139-146.

Literatur[Bearbeiten | Quelltext bearbeiten]

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Weblinks[Bearbeiten | Quelltext bearbeiten]