Konvergenz (Stochastik)

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

In der Stochastik existieren verschiedene Konzepte eines Grenzwertbegriffs für Zufallsvariablen. Anders als im Fall reeller Zahlenfolgen gibt es keine natürliche Definition für das Grenzverhalten von Zufallsvariablen bei wachsendem Stichprobenumfang, weil das asymptotische Verhalten der Experimente immer von den einzelnen Realisationen abhängt und wir es also formal mit der Konvergenz von Funktionen zu tun haben. Daher haben sich im Laufe der Zeit unterschiedlich starke Konzepte herausgebildet, die wichtigsten dieser Konvergenzarten werden im Folgenden kurz vorgestellt.

Voraussetzungen[Bearbeiten]

Wir werden die klassischen Konvergenzbegriffe immer im folgenden Modell formulieren: Gegeben sei eine Folge (X_n)_{(n\in\N)}\; von Zufallsvariablen, die auf einem Wahrscheinlichkeitsraum (\Omega, \Sigma, P) definiert sind und in denselben normierten Raum abbilden. Dieser Bildraum wird mit seiner Borel-Algebra in natürlicher Weise zu einem Messraum. Um die Kernaussagen zu verstehen, genügt es, sich stets reelle Zufallsvariablen vorzustellen. Andererseits können die folgenden Definitionen in naheliegender Weise auf den Fall metrischer Räume als Bildraum verallgemeinert werden.

Eine Realisierung dieser Folge wird üblicherweise mit X_n(\omega) bezeichnet.

Fast sichere Konvergenz[Bearbeiten]

Hauptartikel: Fast sichere Konvergenz

Der Begriff der fast sicheren Konvergenz ist am ehesten mit der Formulierung für Zahlenfolgen vergleichbar. Er wird vor allem bei der Formulierung von starken Gesetzen der großen Zahlen verwendet.

Man sagt, dass die Folge X_n fast sicher gegen eine Zufallsvariable X konvergiert, falls

P\left(\lim_{n\to\infty} X_n = X\right) = P\left(\left\{\omega\in\Omega\,\left|\,\lim_{n\to\infty} X_n(\omega) = X(\omega)\right.\right\}\right)=1

gilt und schreibt dann X_n \xrightarrow {\text{ f. s. }} X. Übersetzt bedeutet dies, dass für fast alle Realisationen der Folge der klassische Konvergenzbegriff bezüglich der Norm gilt. Die fast sichere Konvergenz entspricht damit der punktweisen Konvergenz fast überall aus der Maßtheorie.

Konvergenz im p-ten Mittel[Bearbeiten]

Hauptartikel: Konvergenz im p-ten Mittel

Ein integrationstheoretischer Ansatz wird mit dem Begriff der Konvergenz im p-ten Mittel verfolgt. Es werden dabei nicht einzelne Realisationen betrachtet, sondern Erwartungswerte der Zufallsvariablen.

Formal konvergiert X_n\; im p-ten Mittel gegen eine Zufallsvariable X, falls

 \lim_{n \rightarrow \infty} E[|X_n - X|^p] = 0

gilt. Dabei wird p \ge 1\; vorausgesetzt. Dies bedeutet, dass die Differenz X_n-X\; im Lp-Raum \mathcal L^p(P) gegen 0 konvergiert. Man bezeichnet diese Konvergenz daher auch als \mathcal L^p-Konvergenz.

Wegen der Ungleichung der verallgemeinerten Mittelwerte folgt für q>p\; aus der Konvergenz im q-ten Mittel die Konvergenz im p-ten Mittel.

Konvergenz in Wahrscheinlichkeit[Bearbeiten]

Ein etwas schwächerer Konvergenzbegriff ist die stochastische Konvergenz oder Konvergenz in Wahrscheinlichkeit. Wie der Name bereits suggeriert, werden nicht spezielle Realisationen der Zufallsvariablen betrachtet, sondern Wahrscheinlichkeiten für bestimmte Ereignisse. Eine klassische Anwendung der stochastischen Konvergenz sind schwache Gesetze der großen Zahlen.

Die mathematische Formulierung lautet: Die Folge X_n\; konvergiert stochastisch gegen eine Zufallsvariable X, falls

\forall\varepsilon > 0\colon\lim_{n \to\infty} P(|X_n - X| > \varepsilon) = 0.

Für die Konvergenz in Wahrscheinlichkeit werden meist folgende Schreibweisen verwendet: \operatorname{P-lim}_{n \rightarrow \infty} \, X_n = X\; oder  \operatorname{plim} (X_n) = X oder X_n \stackrel{P}{\rightarrow} X.

Die stochastische Konvergenz entspricht der Konvergenz dem Maße nach aus der Maßtheorie.

Schwache Konvergenz[Bearbeiten]

Hauptartikel: Konvergenz in Verteilung

Der vierte prominente Konvergenzbegriff ist der der Konvergenz in Verteilung, manchmal auch schwache Konvergenz (für Zufallsvariablen) genannt. Er entspricht der schwachen Konvergenz für Maße der Maßtheorie.

Eine Folge von Zufallsvariablen X_n\; konvergiert in Verteilung gegen die Zufallsvariable X, wenn die Folge der induzierten Bildmaße \mu_n(A):=P(X_n\in A) schwach gegen das Bildmaß \mu(A):=P(X\in A) konvergiert. Das heißt, für alle stetigen beschränkten Funktionen f gilt

\lim_{n\to\infty} E(f \circ X_n) = E(f \circ X).

Für reelle Zufallsvariable ist nach dem Satz von Helly-Brey die folgende Charakterisierung äquivalent dazu: Für die Verteilungsfunktionen F_n von X_n und F von X gilt

\lim_{n\to\infty}F_n(x)=F(x)

an allen Stellen x \in \R, an denen F stetig ist.[1] Die wohl bekanntesten Anwendungen der Konvergenz in Verteilung sind zentrale Grenzwertsätze.

Da die Konvergenz in Verteilung ausschließlich durch die Bildmaße bzw. durch die Verteilungsfunktion der Zufallsvariablen definiert sind, ist es nicht notwendig, dass die Zufallsvariablen auf demselben Wahrscheinlichkeitsraum definiert sind.

Als Notation verwendet man in der Regel X_n \stackrel{w}{\rightarrow} X oder X_n \stackrel{\mathcal D}{\rightarrow} X. Die Buchstaben „W“ bzw. „D“ stehen dabei für die entsprechenden Begriffe im Englischen, also weak convergence bzw. convergence in distribution.

Zusammenhang zwischen den einzelnen Konvergenzarten[Bearbeiten]

In der Reihe der wichtigsten Konvergenzbegriffe in der Stochastik stellen die beiden zuerst vorgestellten Begriffe die stärksten Konvergenzarten dar. Sowohl aus fast sicherer Konvergenz [2] als auch aus Konvergenz im p-ten Mittel[3] lässt sich immer die stochastische Konvergenz einer Folge von Zufallsvariablen ableiten. Ferner folgt aus stochastischer Konvergenz automatisch auch die Konvergenz in Verteilung, die die schwächste der hier vorgestellten Konvergenzarten ist.[4]. Kompakt gilt also

 \begin{matrix} \text{Fast sichere} \\ \text{Konvergenz} \end{matrix} \implies
\begin{matrix} \text{Konvergenz in} \\ \text{Wahrscheinlichkeit} \end{matrix} \implies
\begin{matrix} \text{Konvergenz in} \\ \text{Verteilung} \end{matrix}

und

 \begin{matrix} \text{Konvergenz im} \\ \text{p-ten Mittel} \end{matrix} \implies
\begin{matrix} \text{Konvergenz in} \\ \text{Wahrscheinlichkeit} \end{matrix} \implies
\begin{matrix} \text{Konvergenz in} \\ \text{Verteilung} \end{matrix}  .

In Ausnahmefällen gelten auch noch andere Implikationen: Wenn eine Folge von Zufallsvariablen in Verteilung gegen eine Zufallsvariable X konvergiert und X fast sicher konstant ist, dann konvergiert diese Folge auch stochastisch.

Aus der Konvergenz im p-ten Mittel folgt im Allgemeinen nicht die fast sichere Konvergenz. Umgekehrt lässt sich aus fast sicherer Konvergenz im Allgemeinen auch keine Konvergenz im p-ten Mittel schließen. Allerdings ist dieser Schluss erlaubt, wenn es eine gemeinsame Majorante in L^p gibt (siehe Satz von der majorisierten Konvergenz). Eine Folge von Zufallsvariablen konvergiert genau dann in L^1, wenn sie stochastisch konvergiert und gleichgradig integrierbar ist.

Beispiel[Bearbeiten]

Auf dem Wahrscheinlichkeitsraum (\Omega, \Sigma, P) mit \Omega=[0,1], \Sigma den Borelmengen und P dem Borel-Lebesgue-Maß betrachte man die Zufallsvariable X(\omega)=0 sowie die Folge X_n(\omega) der Zufallsvariablen, die für n=2^k+m mit 0\le m < 2^k (jedes natürliche n besitzt eine eindeutige Zerlegung dieser Art) folgendermaßen definiert ist[5][6]:

X_n(\omega)=
\begin{cases}
 1 & \text{falls } \frac{m}{2^k} \le \omega \le \frac{m+1}{2^k}\\
 0 & \text{sonst.} 
\end{cases}

Die Funktionen X_n sind sozusagen immer dünner werdende Zacken, die über das Intervall [0,1] laufen.

Wegen

E[|X_n - X|^p] = \int_0^1 |X_n(\omega)-0|^p d\omega = \frac{1}{2^k}\to 0

konvergiert X_n im p-ten Mittel gegen X. Aus dem oben beschriebenen Zusammenhang zwischen den einzelnen Konvergenzarten folgt, dass X_n ebenso stochastisch gegen X konvergiert, wie sich auch aus

P(|X_n - X| > \varepsilon) =
\begin{cases}
  \frac{1}{2^k}\;&\text{für}\; 0 < \varepsilon \le 1\\
  0\;&\text{für}\; \varepsilon > 1
\end{cases}

und wegen k\rightarrow\infty für n\rightarrow\infty, also

P(|X_n - X| > \varepsilon) \leq \frac{1}{2^k}\to 0\;\text{für jedes}\;\varepsilon>0

erkennen lässt.

Für jedes fixe \omega\in [0,1] gilt aber X_n(\omega)=1 für unendliche viele n, ebenso ist X_n(\omega)=0 für unendlich viele n, sodass also keine fast sichere Konvergenz von X_n vorliegt. Zu jeder Teilfolge X_{n_i} von X_n lässt sich allerdings eine Teilteilfolge X_{n_{i_j}} finden, die fast sicher gegen X konvergiert. Gäbe es eine Topologie der fast sicheren Konvergenz, so würde aus dieser Eigenschaft folgen, dass X_n fast sicher gegen X konvergiert. Dieses Beispiel zeigt also auch, dass es keine Topologie der fast sicheren Konvergenz geben kann.[7]

Einzelnachweise[Bearbeiten]

  1.  Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972, ISBN 0-12-065201-3, Theorem 4.5.4.
  2.  Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972, ISBN 0-12-065201-3, Theorem 2.5.5.
  3.  Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972, ISBN 0-12-065201-3, Theorem 2.5.1.
  4. Virtual Laboratories in Probability and Statistics, Excercise 2.8.3
  5.  Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972, ISBN 0-12-065201-3, Examples 2.5.6.
  6.  Bernard R. Gelbaum, John M.H. Olmsted: Counterexamples in Analysis. Dover Publications, Mineola, New York 2003, ISBN 0-486-42875-3, Abschnitt 8.40, Sequences of functions converging in different senses, S. 109–111.
  7.  J. Cigler, H.-C. Reichel: Topologie. Eine Grundvorlesung. 6 Auflage. Bibliographisches Institut, Mannheim 1978, ISBN 3-411-00121-6, S. 88.

Literatur[Bearbeiten]

  •  Heinz Bauer: Wahrscheinlichkeitstheorie. 4. Auflage. De Gruyter, Berlin 1991, ISBN 3110121905, S. 34 (Konvergenz von Zufallsvariablen und Verteilungen).
  •  Heinz Bauer: Maß- und Integrationstheorie. 2. Auflage. De Gruyter, Berlin 1992, ISBN 3-11-013625-2, §15 Konvergenzsätze und §20 Stochastische Konvergenz, S. 91 ff. und 128 ff..
  •  Jürgen Elstrodt: Maß- und Integrationstheorie. 7. Auflage. Springer, Berlin 2011, ISBN 978-3-642-17904-4, Kapitel VI. Konvergenzbegriffe der Maß- und Integrationstheorie, S. 219–268 (beschreibt ausführlich die Zusammenhänge zwischen den verschiedenen Konvergenzarten).

Siehe auch[Bearbeiten]