Zentraler Grenzwertsatz

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 13. Oktober 2016 um 07:50 Uhr durch NikelsenH (Diskussion | Beiträge) (→‎Verallgemeinerungen: + link). Sie kann sich erheblich von der aktuellen Version unterscheiden.
Zur Navigation springen Zur Suche springen
Annäherung von symmetrischen (oben) und schiefen (unten) Binomialverteilungen (rot) an die Normalverteilung (grün)

Bei den Zentralen Grenzwertsätzen handelt es sich um eine Familie schwacher Konvergenzaussagen aus der Wahrscheinlichkeitstheorie, die zu den Grenzwertsätzen der Stochastik gezählt werden. Allen gemeinsam ist die Aussage, dass die Summe einer großen Zahl von unabhängigen Zufallsvariablen asymptotisch einer stabilen Verteilung folgt.[1] Bei endlicher und positiver Varianz der Zufallsvariablen ist die Summe annähernd normalverteilt, was die Sonderstellung der Normalverteilung erklärt.

Die wichtigste und bekannteste Aussage wird auch einfach als Der Zentrale Grenzwertsatz bezeichnet und befasst sich mit unabhängigen, identisch verteilten Zufallsvariablen, deren Erwartungswert und Varianz endlich sind. Diese Aussage ist auch bekannt als Grenzwertsatz von Lindeberg/Lévy.

Es existieren verschiedene Verallgemeinerungen, für die eine identische Verteilung keine notwendige Voraussetzung ist. Stattdessen wird dann eine andere Voraussetzung gefordert, die sicherstellt, dass keine der Variablen zu großen Einfluss auf das Ergebnis erhält. Beispiele sind die Lindeberg-Bedingung und die Ljapunow-Bedingung. Darüber hinausgehende Verallgemeinerungen gestatten sogar „schwache“ Abhängigkeit der Zufallsvariablen.

Die Bezeichnung geht auf G. Pólyas Arbeit Über den zentralen Grenzwertsatz der Wahrscheinlichkeitsrechnung und das Momentenproblem von 1920 zurück.[2]

Der Zentrale Grenzwertsatz der Statistik bei identischer Verteilung

Sei eine Folge von Zufallsvariablen, die auf demselben Wahrscheinlichkeitsraum mit dem Wahrscheinlichkeitsmaß alle dieselbe Wahrscheinlichkeitsverteilung aufweisen und unabhängig sind (u.i.v. = unabhängig und identisch verteilt, engl. i.i.d. = independent and identically distributed). Sei weiter angenommen, dass sowohl der Erwartungswert als auch die Standardabweichung existieren und endlich sind.

Betrachten wir nun die -te Teilsumme dieser Zufallsvariablen . Der Erwartungswert von ist und die Varianz ist . Bildet man daraus die standardisierte Zufallsvariable

dann besagt der Zentrale Grenzwertsatz, dass die Verteilungsfunktion von für punktweise gegen die Verteilungsfunktion der Standardnormalverteilung konvergiert. Dies entspricht genau dem Begriff der Konvergenz in Verteilung in der Stochastik. Ist die Verteilungsfunktion von , dann bedeutet dies, dass für jedes reelle

In etwas anderer Schreibweise erhält man

wobei

der Mittelwert der ersten n Summanden der Zufallsvariablen ist.

Bemerkungen

  • Der Zentrale Grenzwertsatz kann aber auch elementar, das heißt ohne das tiefliegende Hilfsmittel der charakteristischen Funktion, bewiesen werden. Dazu werden Erwartungswerte der Form untersucht, die einerseits im Fall einer Indikatorfunktion eines abgeschlossenen Intervalls der Wahrscheinlichkeit entsprechen und andererseits in Fällen einer genügend glatten Funktion gut approximiert werden können. Dieses Verfahren eines elementaren Beweises stammt von Jarl Waldemar Lindeberg.[3]
  • Endliche Stichprobenumfänge lassen die Frage nach der Konvergenzgüte aufsteigen. Unter bestimmten Bedingungen liefert der Satz von Berry-Esseen eine Antwort: Existiert das dritte zentrierte Moment und ist es endlich, dann ist die Konvergenz zur Normalverteilung gleichmäßig und die Konvergenzgeschwindigkeit wenigstens von der Ordnung .
  • Da für stochastisch unabhängige normalverteilte Zufallsvariablen die Summe wieder normalverteilt ist, gilt für diese der zentrale Grenzwertsatz im Endlichen, genauer ist für jedes bereits N(0,1) verteilt.

Verallgemeinerungen

Eine Verallgemeinerung des Zentralen Grenzwertsatzes ist der mehrdimensionale Zentrale Grenzwertsatz. Er liefert Aussagen über die Konvergenz der Verteilungen von Zufallsvektoren gegen die mehrdimensionale Standardnormalverteilung.

Eine weitere Verallgemeinerung ist der zentrale Grenzwertsatz von Lindeberg-Feller. Er lässt auch gewisse Abhängigkeiten zwischen den Zufallsvariablen zu, indem er sie zu Gruppen zusammenfasst und die Unabhängigkeit nur innerhalb dieser Gruppen fordert. Die Folge dieser Gruppen wird ein Schema von Zufallsvariablen genannt. Die Lindeberg-Bedingung und die Ljapunow-Bedingung lassen sich auch für Schemata von Zufallsvariablen formulieren und liefern damit Kriterien für die Konvergenz bei Verwendung von Schemata.

Einzelnachweise

  1. John P. Nolan: Stable Distributions - Models for Heavy Tailed Data. Birkhauser, Boston 2011, S. 22 (american.edu).
  2. Jeff Miller: Earliest Known Uses of Some of the Words of Mathematics.
    George Pólya: Über den zentralen Grenzwertsatz der Wahrscheinlichkeitsrechnung und das Momentenproblem, Mathematische Zeitschrift, 8, 1920, S. 171-181 (online)
  3. Jarl Waldemar Lindeberg: Eine neue Herleitung des Exponentialgesetzes in der Wahrscheinlichkeitsrechnung, Mathematische Zeitschrift, Band 15, 1922, S. 211-225 (Online-Version).
    Siehe auch Jörg Bewersdorff: Statistik – wie und warum sie funktioniert. Ein mathematisches Lesebuch. Vieweg+Teubner Verlag 2011, ISBN 978-3834817532, doi:10.1007/978-3-8348-8264-6, S. 139-146.

Literatur

Siehe auch

Weblinks