Gesetz der großen Zahlen

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Visualisierung des starken Gesetzes der großen Zahlen: Auf der y-Achse ist die relative Häufigkeit einer gewürfelten Sechs aufgetragen, während auf der x-Achse die Anzahl der Durchgänge angegeben ist. Die horizontale graue Linie zeigt die Wahrscheinlichkeit eines Sechserwurfes von 16,67 % (=1/6), die schwarze Linie den in einem konkreten Experiment gewürfelten Anteil aller Sechserwürfe bis zur jeweiligen Anzahl der Durchgänge.
Visualisierung des schwachen Gesetzes der großen Zahlen beim Würfelbeispiel: Für wachsendes n zieht sich die Verteilung der relativen Häufigkeit immer enger auf den Wert 1/6 zusammen.

Als Gesetze der großen Zahlen werden bestimmte mathematische Sätze aus der Stochastik bezeichnet.

In ihrer einfachsten Form besagen diese Sätze, dass sich die relative Häufigkeit eines Zufallsergebnisses in der Regel um die theoretische Wahrscheinlichkeit eines Zufallsergebnisses stabilisiert, wenn das zu Grunde liegende Zufallsexperiment immer wieder unter denselben Voraussetzungen durchgeführt wird. Die häufige verwendete Formulierung, dass sich die relative Häufigkeit der Wahrscheinlichkeit „immer mehr annähert“ ist dabei irreführend, da es auch bei einer großen Anzahl von Wiederholungen Ausreißer geben kann. Die Annäherung ist also nicht monoton.

Formal handelt es sich um Aussagen über die Konvergenz des arithmetischen Mittels von Zufallsvariablen, zumeist unterteilt in „starke“ (fast sichere Konvergenz) und „schwache“ (Konvergenz in Wahrscheinlichkeit) Gesetze der großen Zahlen.

Beispiel: Wurf einer Münze[Bearbeiten]

Die Wahrscheinlichkeit, dass eine Münze beim Werfen Kopf zeigt, betrage ½. Je häufiger die Münze geworfen wird, desto unwahrscheinlicher wird es, dass der Anteil der Würfe, bei denen Kopf erscheint (also die relative Häufigkeit des Ereignisses „Kopf“), um mehr als einen beliebigen vorgegebenen Wert von der theoretischen Wahrscheinlichkeit ½ abweicht. Dagegen ist es durchaus wahrscheinlich, dass die absolute Differenz zwischen der Anzahl der Kopf-Würfe und der halben Gesamtzahl der Würfe anwächst.

Insbesondere besagen diese Gesetze der großen Zahlen nicht, dass ein Ereignis, welches bislang nicht so häufig eintrat wie erwartet, seinen „Rückstand“ irgendwann ausgleichen und folglich in Zukunft häufiger eintreten muss. Dies ist ein bei Roulette- und Lottospielern häufig verbreiteter Irrtum, die „säumige“ Zahlenart müsse nun aber aufholen, um wieder der statistischen Gleichverteilung zu entsprechen. Es gilt damit kein Gesetz des Ausgleichs.

Ein Beispiel dazu: Angenommen, eine Serie von Münzwürfen beginne mit „Kopf“, „Zahl“, „Kopf“, „Kopf“. Dann wurde „Kopf“ bis dahin dreimal geworfen, „Zahl“ einmal. „Kopf“ hat gewissermaßen einen Vorsprung von zwei Würfen. Nach diesen vier Würfen ist die relative Häufigkeit von „Kopf“ ¾, die von „Zahl“ ¼. Nach 96 weiteren Würfen stelle sich ein Verhältnis von 47 Mal „Zahl“ zu 53 Mal „Kopf“ ein. Der Vorsprung von „Kopf“ ist also nach 100 Würfen sogar noch größer als nach vier Würfen, jedoch hat sich der relative Abstand von „Kopf“ und „Zahl“ stark verringert, beziehungsweise – und das ist die Aussage des Gesetzes der großen Zahlen – der Unterschied der relativen Häufigkeit von „Kopf“ zum Erwartungswert von „Kopf“. Der Wert \textstyle\frac{53}{100} = 0{,}53 liegt sehr viel näher beim Erwartungswert 0,5 als ¾ = 0,75.

Schwaches Gesetz für relative Häufigkeiten[Bearbeiten]

Der einfachste Fall eines Gesetzes der großen Zahlen, das schwache Gesetz für relative Häufigkeiten, ist das Hauptergebnis in Jakob Bernoullis Ars Conjectandi (1713).[1] Ein Zufallsexperiment mit genau zwei Ausgängen, genannt Erfolg und Misserfolg, also ein Bernoulli-Experiment, werde n Mal unabhängig wiederholt. Bezeichnet p \in (0,1) die Erfolgswahrscheinlichkeit bei einer einzelnen Durchführung, dann ist die Anzahl X_n der Erfolge binomialverteilt mit den Parametern n und p. Für den Erwartungswert von X_n gilt dann \operatorname{E}(X_n) = n p und für die Varianz \operatorname{Var}(X_n) = n p (1-p).

Für die relative Häufigkeit R_n = \tfrac{1}{n} X_n folgt daraus \operatorname{E}(R_n) = p und  \sigma^2 = \operatorname{Var}(R_n) = \tfrac{1}{n^2} \operatorname{Var}(X_n) = \tfrac{p (1-p)}{n}. Die Tschebyscheff-Ungleichung angewendet auf R_n lautet damit

\operatorname{P}\left(|R_n - p| \geq \varepsilon \right) \leq \frac{\sigma^2}{\varepsilon^2} = \frac{p(1-p)}{n \varepsilon^2}

für alle \varepsilon > 0. Da die rechte Seite der Ungleichung für n \to \infty gegen null konvergiert, folgt

\lim_{n \to \infty} \operatorname{P}\left(|R_n - p| \geq \varepsilon \right) = 0,

das heißt, für jedes noch so kleine \varepsilon > 0 geht die Wahrscheinlichkeit, dass die relative Häufigkeit der Erfolge nicht im Intervall (p - \varepsilon, p + \varepsilon) liegt, gegen null, wenn die Anzahl der Versuche gegen unendlich geht.

Schwaches Gesetz der großen Zahlen[Bearbeiten]

Man sagt, eine Folge von Zufallsvariablen X_1, X_2, X_3, \dotsc in \mathcal{L}^1 (d. h. mit E(|X_i|)<\infty, siehe auch Lp-Raum) genüge dem schwachen Gesetz der großen Zahlen, wenn für \overline{X}_n=\tfrac1n \textstyle\sum\limits_{i=1}^{n}(X_i-E ({X}_i)) für alle positiven Zahlen \varepsilon gilt:

\lim_{n\rightarrow\infty}\operatorname{P}\left(\left|\overline{X}_n\right|>\varepsilon\right)=0\,,

also wenn die arithmetischen Mittel der zentrierten Zufallsvariablen X_i - E(X_i) stochastisch gegen 0 konvergieren. Im häufigen Fall, dass alle X_i den gleichen Erwartungswert \mu besitzen, ist das gleichbedeutend damit, dass die arithmetischen Mittel \textstyle\frac{1}{n}\sum_{i=1}^{n} X_i der X_i stochastisch gegen \mu konvergieren.

Es gibt verschiedene Voraussetzungen, unter denen das schwache Gesetz der großen Zahlen gilt. Dabei werden teils Forderungen an die Momente oder an die Unabhängigkeit gestellt. Der Stärke der Aussage nach geordnet gilt:

  • Sind  X_i paarweise unabhängige Zufallsvariablen, die identisch verteilt sind und deren Erwartungswert existiert, dann gilt das schwache Gesetz der großen Zahlen.
  • Ein historisch bedeutender Spezialfall ist das schwache Gesetz der großen Zahl von Chintschin. Dieses Fordert im Gegensatz zur obigen Aussage, dass alle Zufallsvariablen voneinander unabhängig sind, also unabhängig und identisch verteilt sind und endlichen Erwartungswert besitzen. Allerdings ist diese Aussage die erste gewesen, die auf eine endliche Varianz verzichtete.
  • Sind  X_i paarweise unkorrelierte Zufallsvariablen mit beschränkten Varianzen, dann gilt das schwache Gesetz der großen Zahlen. In diesem Fall gilt für die Konvergenzgeschwindigkeit mit  L:=\sup_{i \in \mathbb{N}}\operatorname{Var}(X_i) , dass
P(\left|\overline{X}_n\right|\geq \epsilon) \leq \frac{L}{n\epsilon^2} .
  • Sind  X_i unabhängig identisch verteilte Zufallsvariablen mit endlichem Erwartungswert und endlicher Varianz, dann gilt das schwache Gesetz der großen Zahlen. Diese Aussage wird Tschebyscheff zugerechnet.
  • Die erste Aussage dieser Art traf Bernoulli über Summen von unabhängigen Bernoulli-verteilten Zufallsvariablen. Diese unterliegen auch dem schwachen Gesetz der Großen Zahl.

Der Beweis der genannten Sätze lässt sich jeweils über die Tschebyscheff-Ungleichung führen, falls die Varianz in den Voraussetzungen enthalten ist.

Starkes Gesetz der großen Zahlen[Bearbeiten]

Man sagt, eine Folge von Zufallsvariablen X_1, X_2, X_3, \dotsc in \mathcal{L}^1 genüge dem starken Gesetz der großen Zahlen, wenn für \overline{X}_n=\tfrac1n \textstyle\sum\limits_{i=1}^{n}(X_i-E ({X}_i)) gilt:

\operatorname{P}\left(\limsup_{n\rightarrow\infty}|\overline{X}_n|=0\right)=1,

also wenn die arithmetischen Mittel der zentrierten Zufallsvariablen X_i - E(X_i) fast sicher gegen 0 konvergieren. Wenn alle X_i den gleichen Erwartungswert \mu besitzen, ist das gleichbedeutend damit, dass die arithmetischen Mittel \textstyle\frac{1}{n}\sum_{i=1}^{n} X_i der X_i fast sicher gegen \mu konvergieren. Das starke Gesetz der Großen Zahlen gilt, wenn einer der folgenden Fälle zutrifft:

  • Die  X_i sind paarweise unabhängig und identisch verteilt mit endlichem Erwartungswert.
  • Die  X_i sind paarweise unkorreliert und es ist  \sup_{i\in \mathbb{N}}\operatorname{Var}(X_i)<\infty .

Unter der Annahme, dass die vierten Momente existieren, ist der Beweis des starken Gesetzes der großen Zahlen für Folgen von unabhängigen, identisch verteilten Zufallsvariablen mit Hilfe der Markow-Ungleichung relativ elementar möglich.[2] Schwierigkeiten ergeben sich eher bei der Interpretation der formalen Aussagen, die Gegenstand des starken Gesetzes der großen Zahlen sind.

Das starke Gesetz der großen Zahlen impliziert das schwache Gesetz der großen Zahlen. Ein starkes Gesetz der großen Zahlen gilt beispielsweise, wenn die Folge unabhängig ist und die Zufallsvariablen identisch verteilt sind (Zweites Gesetz der Großen Zahlen nach Kolmogorow).[3] Eine Form des starken Gesetzes der großen Zahlen für abhängige Zufallsvariablen ist der Ergodensatz.

Interpretation der formalen Aussagen[Bearbeiten]

Anders als bei klassischen Folgen, wie sie in der Analysis untersucht werden, kann es in der Wahrscheinlichkeitstheorie in der Regel keine absolute Aussage über die Konvergenz einer Folge von Zufallsergebnissen geben. Grund ist, dass zum Beispiel bei einer Serie von Würfelversuchen Folgen von Zufallsergebnissen wie 6, 6, 6, … nicht ausgeschlossen sind. Bei einer solchen Folge von Zufallsergebnissen würde die Folge der daraus gebildeten arithmetischen Mittel aber nicht gegen den Erwartungswert 3,5 konvergieren. Allerdings besagt das starke Gesetz der großen Zahlen, dass das Ereignis, bei dem die arithmetischen Mittelwerte nicht gegen den Erwartungswert 3,5 konvergieren, die Wahrscheinlichkeit 0 besitzt. Man nennt ein solches Ereignis auch fast unmögliches Ereignis.

Gegenstand der Gesetze der großen Zahlen ist die zu einer gegebenen Folge von Zufallsvariablen X_1, X_2, X_3, \dotsc gebildete Folge der arithmetischen Mittel der zentrierten Zufallsvariablen

\overline{X}_1=X_1 - E(X_1), \; \overline{X}_2=\tfrac{1}{2} ((X_1 - E(X_1)) +(X_2 - E(X_2))), \; \overline{X}_3=\tfrac{1}{3} ((X_1 - E(X_1)) +\dotsb+(X_3 - E(X_3))), \dotsc

Aufgrund der beschriebenen Problematik muss die formale Charakterisierung der Konvergenz dieser Folge \overline{X}_1, \overline{X}_2, \overline{X}_3, \dotsc gegen den Wert 0 nicht nur, wie bei einer klassischen Folge von Zahlen, von einem beliebig klein vorgegebenen Toleranzabstand \varepsilon>0 ausgehen. Zusätzlich wird eine beliebig kleine Toleranzwahrscheinlichkeit p_\text{max}>0 vorgegeben. Die Aussage des schwachen Gesetzes der großen Zahlen bedeutet dann, dass zu jeder beliebigen Vorgabe eines Toleranzabstands \varepsilon und einer Toleranzwahrscheinlichkeit p_\text{max} bei einem genügend groß gewähltem Index n eine Abweichung |\overline{X}_n-0|=|\overline{X}_n|, die den Toleranzabstand \varepsilon überschreitet, höchstens mit der Wahrscheinlichkeit p_\text{max} eintritt. Demgegenüber bezieht sich das starke Gesetz der großen Zahlen auf das Ereignis, dass irgendeine der Abweichungen |\overline{X}_n|, |\overline{X}_{n+1}|, |\overline{X}_{n+2}|,\dotsc den Toleranzabstand \varepsilon überschreitet.[4]

Praktische Bedeutung[Bearbeiten]

Versicherungswesen
Das Gesetz der großen Zahlen hat bei Versicherungen eine große praktische Bedeutung. Es erlaubt eine ungefähre Vorhersage über den künftigen Schadensverlauf. Je größer die Zahl der versicherten Personen, Güter und Sachwerte, die von der gleichen Gefahr bedroht sind, desto geringer ist der Einfluss des Zufalls. Das Gesetz der großen Zahlen kann aber nichts darüber aussagen, wer im Einzelnen von einem Schaden getroffen wird. Unvorhersehbare Großereignisse und Trends wie der Klimawandel, die die Berechnungsbasis von Durchschnittswerten verändern, können das Gesetz zumindest teilweise unbrauchbar machen.
Medizin
Beim Wirksamkeitsnachweis von medizinischen Verfahren kann man es nutzen, um Zufallseinflüsse auszuschalten.
Naturwissenschaften
Der Einfluss von (nicht systematischen) Messfehlern kann durch häufige Versuchwiederholungen reduziert werden.

Geschichte der Gesetze der großen Zahlen[Bearbeiten]

Erstmals formuliert wurde ein Gesetz der großen Zahlen durch Jakob Bernoulli im Jahr 1689, wobei die posthume Veröffentlichung erst 1713 erfolgte. Bernoulli bezeichnete seine Version des schwachen Gesetzes der großen Zahlen als Goldenes Theorem. Die erste Version eines starken Gesetzes der großen Zahlen für den Spezialfall eines Münzwurfs wurde 1909 durch Émile Borel veröffentlicht. 1917 bewies Francesco Cantelli als Erster eine allgemeine Version des starken Gesetzes der großen Zahlen.[5]

Einen gewissen Abschluss erlangte die Geschichte des starken Gesetzes der großen Zahlen mit dem 1981 bewiesenen Satz von N. Etemadi 1981.[6] Der Satz von Etemadi zeigt die Gültigkeit des starken Gesetzes der großen Zahlen unter der Annahme, dass die Zufallsvariablen integrierbar sind (also einen endlichen Erwartungswert besitzen), jeweils dieselbe Verteilung haben und je zwei Zufallsvariablen unabhängig sind. Die Existenz einer Varianz wird nicht vorausgesetzt.

Literatur[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1. Norbert Henze: Stochastik für Einsteiger. 10. Auflage, Springer Spektrum, Wiesbaden 2013, ISBN 978-3-658-03076-6, S. 218 f.
  2. Jörg Bewersdorff: Statistik – wie und warum sie funktioniert. Ein mathematisches Lesebuch. Vieweg+Teubner Verlag 2011, ISBN 978-3834817532, doi:10.1007/978-3-8348-8264-6, S. 105–108
  3.  Schmidt: S. 347 ff.
  4. Jörg Bewersdorff: Statistik – wie und warum sie funktioniert. Ein mathematisches Lesebuch. Vieweg+Teubner Verlag 2011, ISBN 978-3834817532, doi:10.1007/978-3-8348-8264-6, Kapitel 2.8, S. 103–113
  5. Jörg Bewersdorff: Statistik – wie und warum sie funktioniert. Ein mathematisches Lesebuch. Vieweg+Teubner Verlag 2011, ISBN 978-3834817532, doi:10.1007/978-3-8348-8264-6, Kapitel 2.7 und 2.8, S. 90–113
  6. Nasrollah Etemadi: An elementary proof of the strong law of large numbers. In: Zeitschrift für Wahrscheinlichkeitstheorie und Verwandte Gebiete (jetzt: Probability Theory and Related Fields), Band 55(1), S. 119-122, (1981), doi:10.1007/BF01013465

Weblinks[Bearbeiten]