Stochastische Unabhängigkeit

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Stochastische Unabhängigkeit ist ein fundamentales wahrscheinlichkeitstheoretisches Konzept, welches die Vorstellung von sich nicht gegenseitig beeinflussenden Zufallsereignissen formalisiert: Zwei Ereignisse heißen stochastisch unabhängig, wenn sich die Wahrscheinlichkeit dafür, dass das eine Ereignis eintritt, nicht dadurch ändert, dass das andere Ereignis eintritt beziehungsweise nicht eintritt.

Zum Beispiel geht man davon aus, dass zwei Würfe einer Münze voneinander unabhängig sind, da kein kausaler Einfluss zwischen beiden Würfen besteht. Ein Beispiel für zwei voneinander abhängige Ereignisse sind die auf zwei aufeinanderfolgende Tage bezogenen Niederschlagsereignisse, die der Regenwahrscheinlichkeit zugrunde liegen. Grund ist, dass Regentage oft durch größere Schlechtwetterfronten zustande kommen.

Stochastische Unabhängigkeit wird auch für Zufallsvariablen und Ereignisalgebren (σ-Algebra) definiert.

Bei Zufallsvariablen ist die Unkorreliertheit eine verwandte, schwächere Eigenschaft. Die Definition geht auf de Moivre zurück.

Eine fehlende Unabhängigkeit zwischen zwei Zufallsvariablen ist kein Nachweis einer direkten Kausalität.

Stochastische Unabhängigkeit zweier Ereignisse[Bearbeiten]

Definition[Bearbeiten]

Es sei (\Omega,\Sigma,P) ein Wahrscheinlichkeitsraum und A, B \in \Sigma seien zufällige Ereignisse, also messbare Teilmengen der Ergebnismenge \Omega.

Die Ereignisse A und B heißen stochastisch unabhängig, wenn

 P ( A \cap B ) = P ( A ) \cdot P ( B )

gilt. Zwei Ereignisse sind also stochastisch unabhängig, wenn die Wahrscheinlichkeit, dass beide Ereignisse eintreten, gleich dem Produkt ihrer Einzelwahrscheinlichkeiten ist.

Wenn eines der Ereignisse (z. B. B) die Wahrscheinlichkeit 0 hat, dann gilt auch P(A \cap B)=0 und obige Definitionsgleichung ist erfüllt, ebenso wenn B die Wahrscheinlichkeit 1 hat, dann ist P(A \cap B)=P(A). Deshalb erhält man die trivialen Aussagen, dass jedes Ereignis A sowohl von jedem fast unmöglichen als auch von jedem fast sicheren Ereignis unabhängig ist.

Lässt man diese Trivialfälle außer Acht, dann erhält man unter Verwendung des wichtigen Begriffes der bedingten Wahrscheinlichkeit die folgenden äquivalenten Definitionen:

Zwei Ereignisse A und B mit P(A), P(B) > 0 sind genau dann unabhängig, wenn

 P(A|B) \; = P(A)

oder dazu äquivalent

 P(A|B) \; = P(A|\bar B).

Insbesondere die letzten beiden Definitionen zusammen sagen aus: Die Wahrscheinlichkeit des Eintretens des Ereignisses A hängt nicht davon ab, ob das Ereignis B oder \bar B eintritt. Da die Rollen von A und B auch vertauscht werden können, sagt man, die beiden Ereignisse sind unabhängig voneinander.

Beispiel[Bearbeiten]

Betrachtet wird ein Wurf mit einem „idealen“ Würfel. Die Grundmenge \Omega des Wahrscheinlichkeitsraumes sei also \Omega = \{ \omega_1, \dotsc, \omega_6 \}, wobei \omega_i für das Elementarergebnis „die Zahl i wird gewürfelt“ steht. Die Sigma-Algebra \Sigma sei die Potenzmenge von \Omega und das Wahrscheinlichkeitsmaß P ist definiert durch P ( \{\omega_i \} ) = 1/6 für alle 1 \le i \le 6. Es werden nun zwei Ereignisse A und B definiert, wobei A = {es wird eine gerade Zahl gewürfelt} = \{ \omega_2, \omega_4, \omega_6 \} und B = {es wird eine durch drei teilbare Zahl gewürfelt} = \{ \omega_3, \omega_6 \} bedeuten sollen. Nach Definition des Wahrscheinlichkeitsmaßes ist also P ( A ) = 3 / 6 = 1 / 2 und P ( B ) = 2 / 6 = 1 / 3. Für die Schnittmenge von A und B (das heißt, es wird eine sowohl durch 2 als auch durch 3 teilbare Zahl gewürfelt), erhält man A \cap B = \{ \omega_6 \} und damit P ( A \cap B ) = 1/6. Wegen

   P(A) \cdot P(B) = \frac12 \cdot \frac13 = \frac16 = P(A \cap B)

sind also die Ereignisse {es wird eine gerade Zahl gewürfelt} und {es wird eine durch drei teilbare Zahl gewürfelt} unabhängig.

Geschichte[Bearbeiten]

Das Konzept nahm in Untersuchungen von Abraham de Moivre und Thomas Bayes über Glücksspiele mit Ziehen ohne Zurücklegen Gestalt an, auch wenn zuvor Jakob I. Bernoulli implizit darauf aufbaut.[1] De Moivre definiert in The Doctrine of Chance 1718

“… if a Fraction expresses the Probability of an Event, and another Fraction the Probability of an another Event, and those two Events are independent; the Probability that both those Events will Happen, will be the Product of those Fractions.”

Und in einer späteren Ausgabe[2]

“Two Events are independent, when they have no connexion one with the other, and that the happening of one neither forwards nor obstructs the happening of the other.”

Das letztere ist Vorläufer der Darstellung von stochastischer Unabhängigkeit über bedingte Wahrscheinlichkeiten  P(A|B) = P(A). Die erste formal korrekte Definition der stochastischen Unabhängigkeit wurde 1900 von Georg Bohlmann gegeben.

Stochastische Unabhängigkeit mehrerer Ereignisse[Bearbeiten]

Definition[Bearbeiten]

Sei (\Omega,\Sigma,P) ein Wahrscheinlichkeitsraum, I eine nichtleere Indexmenge und (\Sigma_i)_{i\in I} mit \Sigma_i\subset \Sigma für alle i\in I eine Menge nichtleerer Mengensysteme, so heißen (\Sigma_i)_{i\in I} stochastisch unabhängig, wenn für jede endliche Teilmenge, J\subset I und alle Wahlen A_j\in\Sigma_j mit j\in J gilt:

P\left(\bigcap_{j\in J} A_j\right) = \prod_{j\in J} P\left(A_j\right).

Eine Menge von Zufallsvariablen heißt stochastisch unabhängig, wenn ihre Urbild-σ-Algebren stochastisch unabhängig bezüglich obiger Definition sind.

Beispiel[Bearbeiten]

Folgendes Beispiel von Bernstein (1927) zeigt die paarweise Unabhängigkeit von drei Ereignissen A_1, A_2 und A_3, die aber nicht gemeinsam (also A_1, A_2 und A_3 gleichzeitig) unabhängig sind (ein ähnliches Beispiel wurde bereits 1908 von Georg Bohlmann gegeben).

In einer Schachtel befinden sich 4 Zettel mit folgenden Zahlenkombinationen: 112, 121, 211, 222. Einer der Zettel wird zufällig (je mit Wahrscheinlichkeit 1/4) gezogen. Wir betrachten dann folgende drei Ereignisse:

A_1 = \lbrace 1 \ \mathrm{an \ erster \ Stelle} \rbrace mit P(A_1) = \frac{1}{2}
A_2 = \lbrace 1 \ \mathrm{an \ zweiter \ Stelle} \rbrace mit P(A_2) = \frac{1}{2}
A_3 = \lbrace 1 \ \mathrm{an \ dritter \ Stelle} \rbrace mit P(A_3) = \frac{1}{2}

Offensichtlich sind die drei Ereignisse paarweise unabhängig, da gilt

P(A_1 \cap A_2) = P(A_1) \cdot P(A_2) = \frac{1}{4}
P(A_1 \cap A_3) = P(A_1) \cdot P(A_3) = \frac{1}{4}
P(A_2 \cap A_3) = P(A_2) \cdot P(A_3) = \frac{1}{4}

Die drei Ereignisse sind jedoch nicht (gemeinsam) unabhängig, da gilt

P(A_1 \cap A_2 \cap A_3) = 0 \ne \frac{1}{8} = P(A_1) \cdot P(A_2) \cdot P(A_3).

Des Weiteren kann aus P(A_1 \cap A_2 \cap A_3) = P(A_1) \cdot P(A_2) \cdot P(A_3) nicht geschlossen werden, dass die drei Ereignisse paarweise unabhängig sind.

Stochastische Unabhängigkeit von Zufallsvariablen[Bearbeiten]

Definition[Bearbeiten]

Seien X\colon (\Omega, \mathcal A,P) \rightarrow (\Sigma, \mathcal B) und Y\colon (\Omega,\mathcal A,P) \rightarrow (\Sigma', \mathcal B') Zufallsvariablen. Dann heißen X und Y stochastisch unabhängig, falls

P(X \in A, Y \in B) = P(X \in A)P(Y \in B)

für alle A \in \mathcal B und alle B \in \mathcal B'.

Bemerkungen[Bearbeiten]

Bei methodisch korrektem Vorgehen kann man nicht einfach Unabhängigkeit vermuten, sondern man muss sie anhand obiger Formel überprüfen. Dabei ist meistens die gemeinsame Wahrscheinlichkeit P(A \cap B) nicht von vornherein gegeben. Bei der praktischen Auswertung erhobener Daten kann man beispielsweise mit einem χ2-Test die Merkmale auf stochastische Unabhängigkeit testen.

Für die Analyse auf Abhängigkeit zweier Zufallsvariablen kann man auch testen, ob der Korrelationskoeffizient Null ist. Wenn die Hypothese abgelehnt wird, geht man davon aus, dass diese Variablen stochastisch abhängig sind. Der Umkehrschluss ist allerdings nicht zulässig, denn es können Abhängigkeitsstrukturen vorliegen, die der Korrelationskoeffizient nicht erfassen kann. Jedoch sind beispielsweise unkorrelierte, gemeinsam normalverteilte Zufallsvariablen auch stochastisch unabhängig.

Noch etwas weiter wird der Begriff der stochastischen Unabhängigkeit von Zufallsvariablen von Filtrationen gefasst: X heißt von \mathcal{F} unabhängig, wenn für F\in\mathcal{F} gilt:

\int_F X\, dP=\int_\Omega X I_F\, dP=\int_\Omega X\, dP \int_\Omega I_F\, dP.

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

Weblinks[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1. de Tari and Diblasi: Analysis of didactic situations suggested to distinguish disjunctive events and independent events. In: ICOTS-7, 2006.
  2. Zitiert nach: Grinstead and Snell’s Introduction to Probability. In: The CHANCE Project. Version vom 4 Juli 2006. Website