Gleichung von Bienaymé

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Die Gleichung von Bienaymé, Bienaymé-Gleichung[1] oder Formel von Bienaymé[2] ist eine Gleichung aus der Stochastik. Sie erlaubt die Berechnung der Varianz der Summe von Zufallsvariablen und besagt insbesondere, dass sie sich bei unkorrelierten (und demnach auch bei stochastisch unabhängigen Zufallsvariablen) additiv verhält. Die Varianz der Summe unkorrelierter Zufallsvariablen ist also die Summe der Varianzen der Zufallsvariablen.

Die Gleichung ist nach dem französischen Mathematiker Irénée-Jules Bienaymé (1796–1878) benannt, der sie 1853 zeigte.[3] Sie wird unter anderem zur Ermittlung des Fehlers von Monte-Carlo-Simulationen verwendet und ein wichtiges Hilfsmittel zur Umformung von Gleichungen in der Stochastik. So liefert sie beispielsweise in Kombination mit der Tschebyscheff-Ungleichung eine erste Version des schwachen Gesetzes der großen Zahlen.

Aussage[Bearbeiten | Quelltext bearbeiten]

Gegeben seien quadratintegrierbare Zufallsvariablen , es gelte also für . Des Weiteren sei die Varianz der Zufallsvariable und die Kovarianz von und .

Die Gleichung von Bienaymé wird in der Literatur nicht einheitlich formuliert. In ihrer allgemeineren Version besagt sie, dass

gilt.[4]

Spezieller gilt:[5] Sind die paarweise unkorreliert, also für , so gilt

.

Insbesondere gilt dies dann auch für Summen stochastisch unabhängiger Zufallsvariablen, denn aus Unabhängigkeit und Integrierbarkeit folgt die Unkorreliertheit der Zufallsvariablen.[6]

Beispiel[Bearbeiten | Quelltext bearbeiten]

Sind beispielsweise die Augenzahl eines vierseitigen, die Augenzahl eines sechsseitigen und die Augenzahl eines achtseitigen fairen Würfels. Die Wahrscheinlichkeitsverteilungen der drei Würfel sind diskrete Gleichverteilungen, wodurch sich für die Varianzen der Augenzahlen der einzelnen Würfel

  und  

ergibt. Nach der Gleichung von Bienaymé beträgt nun die Varianz der Augensumme der drei Würfel

.

Somit ergibt sich als Standardabweichung der Augensumme ein Wert von etwa .

Beweis[Bearbeiten | Quelltext bearbeiten]

Die quadratische Integrierbarkeit stellt zunächst sicher, dass alle auftretenden Erwartungswerte und Varianzen endlich sind. Aufgrund der linearität des Erwartungswertes ist

.

Somit folgt

Nach Definition der Varianz als folgt durch ausmultiplizieren

,

wobei der letzte Schritt durch einsetzen der Definition der Kovarianz folgt. Da aber für folgt, dass , werden diese Terme in eine separate Summe geschrieben und die Gleichung von Bienaymé folgt.

Die zweite Fassung folgt direkt aus der ersten, da aus Unkorreliertheit per Definition folgt und die eine Summe wegfällt.

Folgerungen[Bearbeiten | Quelltext bearbeiten]

Eine wichtige Folgerung der Gleichung von Bienaymé besteht für Folgen unabhängig und identisch verteilter Zufallsvariablen , die alle die Varianz aufweisen. Die Varianz des arithmetischen Mittels der ersten Folgenglieder

verhält sich demnach umgekehrt proportional zu .[7] Zusammen mit der Tschebyscheff-Ungleichung ergibt sich daraus, dass die Folge dem schwachen Gesetz der großen Zahlen genügt, also dass die Mittelwerte stochastisch gegen den Erwartungswert konvergieren.

Der Standardfehler des arithmetischen Mittels

zeigt, dass das arithmetische Mittel als erwartungstreuer Schätzer für einen unbekannten Erwartungswert eine Rate von aufweist. Aus diesem Grund besitzt der Fehler von klassischen Monte-Carlo-Simulationen eine Konvergenzgeschwindigkeit von .[7]

Im Zusammenhang mit zufälligen Messabweichungen ergibt sich aus der Gleichung von Bienaymé im Fall unkorrelierter fehlerbehafteter Größen das gaußsche Fehlerfortpflanzungsgesetz.

Verallgemeinerung[Bearbeiten | Quelltext bearbeiten]

Die Gleichung von Bienaymé kann auch auf gewichtete Summen von Zufallsvariablen verallgemeinert werden. Sind dazu reelle Gewichtsfaktoren, dann gilt für die Varianz der gewichteten Summe paarweise unkorrelierter Zufallszahlen

.

Insbesondere folgt daraus, dass die Varianz der Differenz zweier unkorrelierter Zufallsvariablen und ebenso wie die ihrer Summe (!) gleich der Summe ihrer Varianzen ist, das heißt

.

Literatur[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Klenke: Wahrscheinlichkeitstheorie. 2013, S. 106.
  2. Meintrup, Schäffler: Stochastik. 2005, S. 129.
  3. Georgii: Stochastik. 2009, S. 109.
  4. Klenke: Wahrscheinlichkeitstheorie. 2013, S. 106.
  5. Meintrup, Schäffler: Stochastik. 2005, S. 129.
  6. Müller-Gronbach, Novak, Ritter: Monte Carlo-Algorithmen. S. 7.
  7. a b Müller-Gronbach, Novak, Ritter: Monte Carlo-Algorithmen. S. 29.