Unabhängig und identisch verteilte Zufallsvariablen

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Unabhängig und identisch verteilte Zufallsvariablen[1][2] sind eine zentrale Konstruktion der Stochastik und eine wichtige Voraussetzung vieler mathematischer Sätze der Statistik. Unabhängig und identisch verteilte Zufallsvariablen besitzen alle dieselbe Verteilung, nehmen also mit gleicher Wahrscheinlichkeit gleiche Werte an, beeinflussen sich dabei aber nicht. Somit sind unabhängig und identisch verteilte Zufallsvariablen die stochastische Modellierung eines allgemeinen naturwissenschaftlichen Experiments: Die Unabhängigkeit sorgt dafür, dass sich die einzelnen Experimente nicht gegenseitig beeinflussen, die identische Verteilung dafür, dass dasselbe Experiment immer wieder durchgeführt wird.

Als Abkürzung finden sich in der Literatur unter anderem iid[3] oder i.i.d.[4] als Abkürzung des englischen independent and identically distributed oder das auf dem Deutschen basierende u.i.v.[5]

Definition[Bearbeiten | Quelltext bearbeiten]

Eine Familie von Zufallsvariablen heißt unabhängig und identisch verteilt, wenn die folgenden beiden Kriterien erfüllt sind:[1]

  • Die Familie ist stochastisch unabhängig.
  • Die Zufallsvariablen besitzen alle dieselbe Verteilung. Das bedeutet, es existiert eine Wahrscheinlichkeitsverteilung , so dass für alle .

Varianten[Bearbeiten | Quelltext bearbeiten]

Die Definition lässt sich problemlos auf beliebige Indexmengen ausdehnen. Gängig ist die Definition für die Indexmenge , also für eine endliche Folge von Zufallsvariablen , oder für eine beliebige, möglicherweise überabzählbare Indexmenge .

Existenz[Bearbeiten | Quelltext bearbeiten]

Eine grundlegende Frage ist, ob überhaupt Folgen aus unendlich vielen Zufallsvariablen existieren, die unabhängig und identisch verteilt sind. Dies ist nicht offensichtlich, da die stochastische Unabhängigkeit eine starke Eigenschaft ist, die auf dem zugrunde liegenden Mengensystem definiert ist und nicht a priori klar ist, ob ein Mengensystem existiert, das groß genug ist, um die stochastische Unabhängigkeit vieler Zufallsvariablen zu ermöglichen.

Tatsächlich lässt sich mit fortgeschrittenen Methoden zeigen, dass beliebig große Familien von unabhängig und identisch verteilten Zufallsvariablen existieren. In einführender Literatur wird meist eine vereinfachte Konstruktion angegeben und die Aussage, welche die Existenz von unabhängig und identisch verteilten Zufallsvariablen liefert, auch als „Klonsatz“ bezeichnet.[6]

Im Kern basieren viele Konstruktionen auf der Existenz des unendlichen Produktmaßes, in der allgemeinsten Version garantiert durch den Satz von Andersen-Jessen. Zur Konstruktion einer Folge von unabhängigen, identisch verteilten Zufallsvariablen mit Verteilungen auf den reellen Zahlen wird der Produktraum

konstruiert, wobei die Produkt-σ-Algebra ist und das unendliche Produktmaß.

Definiert man dann

als Projektion der n-ten Komponente, so sind die alle Zufallsvariablen (da messbar aufgrund der Definition der Produkt-σ-Algebra) und identisch verteilt sowie stochastisch unabhängig. Die allgemeineren Konstruktionen mit allgemeineren Bildräumen und Indexmengen verlaufen analog.

Verwandte Konzepte[Bearbeiten | Quelltext bearbeiten]

Austauschbare Familie von Zufallsvariablen[Bearbeiten | Quelltext bearbeiten]

Als austauschbare Familie von Zufallsvariablen bezeichnet man eine Familie von Zufallsvariablen, bei denen sich die Verteilung der gesamten Familie nicht ändert, wenn man endlich viele der Zufallsvariablen miteinander vertauscht. Austauschbare Familien sind immer identisch verteilt, umgekehrt ist jede unabhängig und identisch verteilte Familie immer austauschbar.

Bedingt unabhängig und identisch verteilt[Bearbeiten | Quelltext bearbeiten]

Einen analogen Begriff zu unabhängig identisch verteilten Zufallsvariablen erhält man, indem man die Unabhängigkeit von Mengensystemen, auf der die Unabhängigkeit von Zufallsvariablen aufbaut, durch die auf dem bedingten Erwartungswert aufbauende bedingte Unabhängigkeit (von Mengensystemen) ersetzt. Dann heißt eine Familie von Zufallsvariablen unabhängig und identisch verteilt gegeben , wenn

  • die von den Zufallsvariablen erzeugten σ-Algebren bedingt unabhängig gegeben sind und
  • die bedingten Verteilungen alle gleich sind.[7]

Weitere verwandte Begriffe[Bearbeiten | Quelltext bearbeiten]

Insbesondere im Bereich der klassischen Grenzwertsätze der Stochastik (Gesetz der großen Zahlen und Zentraler Grenzwertsatz) finden sich diverse Abwandlungen der Voraussetzung, dass eine Folge unabhängig und identisch verteilt sein soll. Hierbei wird beispielsweise die stochastische Unabhängigkeit ersetzt durch

  • paarweise stochastische Unabhängigkeit, also die stochastische Unabhängigkeit von und für . Dies ist eine echte Abschwächung gegenüber der stochastischen Unabhängigkeit der gesamten Familie von Zufallsvariablen, wie ein Beispiel für die stochastische Unabhängigkeit von Ereignissen hier belegt.
  • Unkorreliertheit, wobei diese immer nur als paarweise Unkorreliertheit definiert ist. Da aus Unabhängigkeit immer Unkorreliertheit folgt, der Umkehrschluss aber im Allgemeinen nicht gilt, ist dies eine echte Abschwächung gegenüber der paarweisen Unabhängigkeit (und somit auch der Unabhängigkeit).

Eine weitere Abwandlung sind die unabhängigen Schemata von Zufallsvariablen, wie sie beispielsweise im zentralen Grenzwertsatz von Lindeberg-Feller auftreten. Dabei werden die Zufallsvariablen einer Folge gruppiert und die stochastische Unabhängigkeit nur innerhalb der Gruppen gefordert. Die Abhängigkeiten zwischen den Gruppen sind dabei irrelevant.

Literatur[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. a b Klenke: Wahrscheinlichkeitstheorie. 2013, S. 57.
  2. Schmidt: Maß- und Wahrscheinlichkeit. 2011, S. 347.
  3. Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. 2014, S. 246.
  4. Czado, Schmidt: Mathematische Statistik. 2011, S. 7.
  5. Klenke: Wahrscheinlichkeitstheorie. 2013, S. 57.
  6. Behrends: Elementare Stochastik. 2013, S. 141.
  7. Klenke: Wahrscheinlichkeitstheorie. 2013, S. 243.