Zufallsvariable

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

In der Stochastik ist eine Zufallsvariable oder Zufallsgröße (auch zufällige Größe,[1] selten stochastische Variable oder stochastische Größe) eine Größe, deren Wert vom Zufall abhängig ist.[2] Formal ist eine Zufallsvariable eine Zuordnungsvorschrift, die jedem möglichen Ergebnis eines Zufallsexperiments eine Größe zugeordnet.[1] Ist diese Größe eine Zahl, so spricht man von einer Zufallszahl. Beispiele für Zufallszahlen sind die Augensumme von zwei geworfenen Würfeln und die Gewinnhöhe in einem Glücksspiel. Zufallsvariablen können aber auch komplexere mathematische Objekte, wie Zufallsbewegungen, Zufallspermutationen oder Zufallsgraphen, sein.

Über verschiedene Zuordnungsvorschriften können einem Zufallsexperiment auch verschiedene Zufallsvariablen zugeordnet werden.[1] Den einzelnen Wert, den eine Zufallsvariable bei der Durchführung eines Zufallsexperiments annimmt, nennt man Realisation.[3]

Während früher der von A. N. Kolmogorow eingeführte Begriff Zufallsgröße der übliche deutsche Begriff war, hat sich heute (ausgehend vom englischen random variable) der etwas irreführende Begriff Zufallsvariable durchgesetzt.[4]

Motivation des formalen Begriffs[Bearbeiten]

Die Funktionswerte X(\omega) einer Zufallsvariablen X sind abhängig von einer den Zufall repräsentierenden Größe \omega. Zum Beispiel kann \omega das zufällige Ergebnis eines Münzwurfs sein. Dann kann zum Beispiel eine Wette auf den Ausgang eines Münzwurfs mithilfe einer Zufallsvariablen modelliert werden. Angenommen, es wurde auf Zahl gewettet, und wenn richtig gewettet wurde, wird 1 EUR ausgezahlt, sonst nichts. Sei X die Auszahlungssumme. Da der Wert von X vom Zufall abhängt, ist X eine Zufallsvariable, insbesondere eine reelle Zufallsvariable. Sie bildet die Menge der Wurfergebnisse \{\text{Kopf}, \text{Zahl}\} auf die Menge der möglichen Auszahlungsbeträge \{0, 1\} ab:

X(\omega) = \begin{cases}
0, & \text{wenn }\omega = \text{Kopf},\\
1, & \text{wenn }\omega = \text{Zahl}.
\end{cases}

Wettet man bei zwei Münzwürfen beide Male auf Kopf und bezeichnet die Kombination der Ausgänge der Münzwürfe mit \omega=\left(\omega_1,\omega_2\right), so lassen sich beispielsweise folgende Zufallsvariablen untersuchen:

  1. X_1(\omega) := X(\omega_1) \in\{0,1\} als Auszahlung nach der ersten Wette,
  2. X_2(\omega) := X(\omega_2) \in\{0,1\} als Auszahlung nach der zweiten Wette,
  3. S(\omega) := X(\omega_1) + X(\omega_2) \in\{0,1,2\} als Summe der beiden Auszahlungen.

Zufallsvariable selbst werden üblicherweise mit einem Großbuchstaben bezeichnet (hier X_1, X_2, S), während man für die Realisierungen die entsprechenden Kleinbuchstaben verwendet (so beispielsweise für \omega=\left(\text{Zahl},\text{Kopf}\right) die Realisierungen x_1 = 1, x_2=0, s=1).

Im Beispiel hat die Menge \Omega = \{\text{Kopf}, \text{Zahl}\} eine konkrete Interpretation. In der weiteren Entwicklung der Wahrscheinlichkeitstheorie ist es oft zweckmäßig, die Elemente von \Omega als abstrakte Repräsentanten des Zufalls zu betrachten, ohne ihnen eine konkrete Bedeutung zuzuweisen, und dann sämtliche zu modellierende Zufallsvorgänge als Zufallsvariable zu erfassen.

Definition[Bearbeiten]

Als Zufallsvariable bezeichnet man eine messbare Funktion von einem Wahrscheinlichkeitsraum in einen Messraum.

Eine formale mathematische Definition lässt sich wie folgt geben:[5]

Es seien (\Omega,\Sigma,P) ein Wahrscheinlichkeitsraum und (\Omega',\Sigma') ein Messraum. Eine (\Sigma,\Sigma')-messbare Funktion X\colon\Omega\to\Omega' heißt dann eine \Omega'-Zufallsvariable auf \Omega.

Beispiel: Zweimaliger Würfelwurf[Bearbeiten]

Summe von zwei Würfeln:(\Omega,\Sigma,P) \xrightarrow{S} (\Omega',\Sigma', P^S).

Das Experiment, mit einem fairen Würfel zweimal zu würfeln, lässt sich mit folgendem Wahrscheinlichkeitsraum (\Omega, \Sigma, P) modellieren:

  • \Omega ist die Menge der 36 möglichen Ergebnisse \Omega=\{(1,1), (1,2), \dotsc, (6,5), (6,6)\}
  • \Sigma ist die Potenzmenge von \Omega
  • Will man zwei unabhängige Würfe mit einem fairen Würfel modellieren, so setzt man alle 36 Ergebnisse gleich wahrscheinlich, wählt also das Wahrscheinlichkeitsmaß P als P\left(\{(n_1,n_2)\}\right) = \tfrac {1}{36} für n_1, n_2 \in \{1,2,3,4,5,6\}.

Die Zufallsvariablen X_1 (gewürfelte Zahl des ersten Würfels), X_2 (gewürfelte Zahl des zweiten Würfels) und S (Augensumme des ersten und zweiten Würfels) werden als folgende Funktionen definiert:

  1. X_1\colon \Omega \to \R;\quad\left(n_1,n_2\right) \mapsto n_1,
  2. X_2\colon \Omega \to \R;\quad\left(n_1,n_2\right) \mapsto n_2, und
  3. S\colon \Omega \to \R;\quad\left(n_1,n_2\right) \mapsto n_1+n_2,

wobei für \Sigma' die borelsche σ-Algebra auf den reellen Zahlen gewählt wird.

Bemerkungen[Bearbeiten]

In der Regel wird auf die konkrete Angabe der zugehörigen Räume verzichtet; es wird angenommen, dass aus dem Kontext klar ist, welcher Wahrscheinlichkeitsraum auf \Omega und welcher Messraum auf \Omega' gemeint ist.

Bei einer endlichen Ergebnismenge \Omega wird \Sigma meistens als die Potenzmenge von \Omega gewählt. Die Forderung, dass die verwendete Funktion messbar ist, ist dann immer erfüllt. Messbarkeit wird erst wirklich bedeutsam, wenn die Ergebnismenge \Omega überabzählbar viele Elemente enthält.

Einige Klassen von Zufallsvariablen mit bestimmten Wahrscheinlichkeits- und Messräumen werden besonders häufig verwendet. Diese werden teilweise mit Hilfe alternativer Definitionen eingeführt, die keine Kenntnisse der Maßtheorie voraussetzen:

Reelle Zufallsvariable[Bearbeiten]

Bei reellen Zufallsvariablen ist der Bildraum die Menge \R der reellen Zahlen versehen mit der borelschen \sigma-Algebra. Die allgemeine Definition von Zufallsvariablen lässt sich in diesem Fall zur folgenden Definition vereinfachen:

Eine reelle Zufallsvariable ist eine Funktion X\colon\Omega\to\R, die jedem Ergebnis \omega einer Ergebnismenge \Omega eine reelle Zahl X(\omega) zuordnet und die folgende Messbarkeitsbedingung erfüllt:
\forall x \in \R:\ \lbrace \omega \mid X(\omega) \leq x \rbrace \in \Sigma

Das bedeutet, dass die Menge aller Ergebnisse, deren Realisierung unterhalb eines bestimmten Wertes liegt, ein Ereignis bilden muss.

Im Beispiel des zweimaligen Würfelns sind X_1, X_2 und S jeweils reelle Zufallsvariable.

Mehrdimensionale Zufallsvariable[Bearbeiten]

Eine mehrdimensionale Zufallsvariable ist eine messbare Abbildung X\colon\Omega\to\R^n für eine Dimension n\in\Bbb N. Sie wird auch als Zufallsvektor bezeichnet. Damit ist X=(X_1,\dotsc,X_n) gleichzeitig ein Vektor von einzelnen reellen Zufallsvariablen X_i\colon\Omega\to\R, die alle auf dem gleichen Wahrscheinlichkeitsraum definiert sind. Die Verteilung von X wird als multivariat bezeichnet, die Verteilungen der Komponenten X_i nennt man auch Randverteilungen. Die mehrdimensionalen Entsprechungen von Erwartungswert und Varianz sind der Erwartungswertvektor und die Kovarianzmatrix.

Im Beispiel des zweimaligen Würfelns ist X=(X_1,X_2) eine zweidimensionale Zufallsvariable.

Komplexe Zufallsvariable[Bearbeiten]

Bei komplexen Zufallsvariablen ist der Bildraum die Menge \Bbb C der komplexen Zahlen versehen mit der durch die kanonische Vektorraumisomorphie zwischen \Bbb C und \R^2 „geerbten“ borelschen σ-Algebra. X ist genau dann eine Zufallsvariable, wenn Realteil \operatorname{Re}(X) und Imaginärteil \operatorname{Im}(X) jeweils reelle Zufallsvariablen sind.

Die Verteilung von Zufallsvariablen, Existenz[Bearbeiten]

Eng verknüpft mit dem eher technischen Begriff einer Zufallsvariablen ist der Begriff der auf dem Bildraum von X\; induzierten Wahrscheinlichkeitsverteilung. Mitunter werden beide Begriffe auch synonym verwendet. Formal wird die Verteilung \;P^X einer Zufallsvariablen X\; als das Bildmaß des Wahrscheinlichkeitsmaßes P\; definiert, also

\;P^X (A) = P \left(X^{-1}(A)\right) für alle  A \in \Sigma'.

Statt \;P^X werden in der Literatur für die Verteilung von X\; auch die Schreibweisen P_X, X(P)\; oder P \circ X^{-1} verwendet.

Spricht man also beispielsweise von einer normalverteilten Zufallsvariablen, so ist damit eine Zufallsvariable mit Werten in den reellen Zahlen gemeint, deren Verteilung einer Normalverteilung entspricht.

Eigenschaften, welche sich allein über gemeinsame Verteilungen von Zufallsvariablen ausdrücken lassen, werden auch wahrscheinlichkeitstheoretisch genannt.[6] Für Behandlung solcher Eigenschaften ist es nicht notwendig, die konkrete Gestalt des (Hintergrund-)Wahrscheinlichkeitsraumes zu kennen, auf dem die Zufallsvariablen definiert sind.

Häufig wird deswegen von einer Zufallsvariablen lediglich die Verteilungsfunktion angegeben und der zu Grunde liegende Wahrscheinlichkeitsraum offen gelassen. Dies ist vom Standpunkt der Mathematik erlaubt, sofern es tatsächlich einen Wahrscheinlichkeitsraum gibt, der eine Zufallsvariable mit der gegebenen Verteilung erzeugen kann. Ein solcher Wahrscheinlichkeitsraum (\Omega,\Sigma,P) lässt sich aber zu einer konkreten Verteilung leicht angeben, indem beispielsweise \Omega=\R, \Sigma als die Borelsche σ-Algebra auf den reellen Zahlen und P als das durch die Verteilungsfunktion induzierte Lebesgue-Stieltjes-Maß gewählt wird. Als Zufallsvariable kann dann die identische Abbildung X \colon \R \to \R mit X(\omega) = \omega gewählt werden.[7]

Wenn eine Schar von Zufallsvariablen betrachtet wird, reicht es aus wahrscheinlichkeitstheoretischer Perspektive genauso, die gemeinsame Verteilung der Zufallsvariablen anzugeben, die Gestalt des Wahrscheinlichkeitsraums kann wiederum offen gelassen werden.

Die Frage nach der konkreten Gestalt des Wahrscheinlichkeitsraumes tritt also in den Hintergrund, es ist jedoch von Interesse, ob zu einer Schar von Zufallsvariablen mit vorgegebenen endlichdimensionalen gemeinsamen Verteilungen ein Wahrscheinlichkeitsraum existiert, auf dem sie sich gemeinsam definieren lassen. Diese Frage wird für unabhängige Zufallsvariablen durch einen Existenzsatz von É. Borel gelöst, der besagt, dass man im Prinzip auf den von Einheitsintervall und Lebesgue-Maß gebildeten Wahrscheinlichkeitsraum zurückgreifen kann. Ein möglicher Beweis nutzt, dass sich die binären Nachkommastellen der reellen Zahlen in [0,1] als ineinander verschachtelte Bernoulli-Folgen betrachten lassen (ähnlich Hilberts Hotel).[8]

Mathematische Attribute für Zufallsvariable[Bearbeiten]

Verschiedene mathematische Attribute, die in der Regel denen für allgemeine Funktionen entlehnt sind, finden bei Zufallsvariablen Anwendung. Die häufigsten werden in der folgenden Zusammenstellung kurz erklärt:

diskret[Bearbeiten]

Eine Zufallsvariable wird als diskret bezeichnet, wenn sie nur endlich viele oder abzählbar unendlich viele Werte annimmt. Im obigen Beispiel des zweimaligen Würfelns sind alle drei Zufallsvariablen X_1, X_2 und S diskret. Ein weiteres Beispiel für diskrete Zufallsvariablen sind zufällige Permutationen.

konstant[Bearbeiten]

Eine Zufallsvariable wird als konstant bezeichnet, wenn sie nur einen Wert annimmt: X(\omega)=c für alle \omega. Sie ist ein Spezialfall der diskreten Zufallsvariable.

unabhängig[Bearbeiten]

Zwei reelle Zufallsvariablen X,Y heißen unabhängig, wenn für je zwei Intervalle [a_1,b_1] und [a_2,b_2] die Ereignisse E_X := \{ \omega | X(\omega) \in [a_1,b_1] \} und E_Y := \{ \omega | Y(\omega) \in [a_2,b_2] \} stochastisch unabhängig sind. Das sind sie, wenn gilt: P(E_X \cap E_Y ) = P(E_X) P(E_Y).

In obigem Beispiel sind X_1 und X_2 unabhängig voneinander; die Zufallsvariablen X_1 und S hingegen nicht.

Unabhängigkeit mehrerer Zufallsvariablen X_1, X_2, \dotsc, X_n bedeutet, dass das Wahrscheinlichkeitsmaß P_X des Zufallsvektors X=\left(X_1, X_2, \dotsc, X_n\right) dem Produktmaß der Wahrscheinlichkeitsmaße der Komponenten, also dem Produktmaß von P_{X_1}, P_{X_2}, \dotsc, P_{X_n} entspricht.[9] So lässt sich beispielsweise dreimaliges unabhängiges Würfeln durch den Wahrscheinlichkeitsraum (\Omega,\Sigma,P) mit

\Omega=\{1,2,3,4,5,6\}^3,
\Sigma der Potenzmenge von \Omega und
P\left(\left(n_1, n_2, n_3\right)\right)=\frac{1}{6^3}=\frac{1}{216}

modellieren; die Zufallsvariable "Ergebnis des k-ten Wurfes" ist dann

X_k\left(n_1, n_2, n_3\right)=n_k für k\in\{1,2,3\}.

Die Konstruktion eines entsprechenden Wahrscheinlichkeitsraums für eine beliebige Familie unabhängiger Zufallsvariable mit gegebenen Verteilungen ist ebenfalls möglich.[10]

identisch verteilt[Bearbeiten]

Zwei oder mehr Zufallsvariablen heißen identisch verteilt (bzw. i.d. für identically distributed), wenn ihre Verteilungen gleich sind. In Beispiel des zweimaligen Würfelns sind X_1, X_2 identisch verteilt; die Zufallsvariablen X_1 und S hingegen nicht.

unabhängig und identisch verteilt[Bearbeiten]

Häufig werden Folgen von Zufallsvariablen untersucht, die sowohl unabhängig als auch identisch verteilt sind; dieser Fall wird üblicherweise mit u.i.v. bzw. i.i.d. (für independent and identically distributed) abgekürzt.

In obigem Beispiel des dreimaligen Würfelns sind X_1, X_2 und X_3 i.i.d. Die Summe der ersten beiden Würfe S_{1,2}=X_1+X_2 und die Summe des zweiten und dritten Wurfs S_{2,3}=X_2+X_3 sind zwar identisch verteilt, aber nicht unabhängig. Dagegen sind S_{1,2} und X_3 unabhängig, aber nicht identisch verteilt.

Mathematische Attribute für reelle Zufallsvariable[Bearbeiten]

Kenngrößen[Bearbeiten]

Zur Charakterisierung von Zufallsvariablen dienen einige wenige Funktionen, die wesentliche mathematische Eigenschaften der jeweiligen Zufallsvariable beschreiben. Die wichtigste dieser Funktionen ist die Verteilungsfunktion, die Auskunft darüber gibt, mit welcher Wahrscheinlichkeit die Zufallsvariable einen Wert bis zu einer vorgegebenen Schranke annimmt, beispielsweise die Wahrscheinlichkeit, höchstens eine Vier zu würfeln. Bei stetigen Zufallsvariablen wird diese durch die Wahrscheinlichkeitsdichte ergänzt, mit der die Wahrscheinlichkeit berechnet werden kann, dass die Werte einer Zufallsvariablen innerhalb eines bestimmten Intervalls liegen. Des Weiteren sind Kennzahlen wie der Erwartungswert, die Varianz oder höhere mathematische Momente von Interesse.

stetig oder kontinuierlich[Bearbeiten]

Das Attribut stetig wird für unterschiedliche Eigenschaften verwendet.

  • Eine reelle Zufallsvariable wird als stetig (oder auch absolut stetig) bezeichnet, wenn sie eine Dichte besitzt (ihre Verteilung absolutstetig bezüglich des Lebesgue-Maßes ist).[11]
  • Eine reelle Zufallsvariable wird als stetig bezeichnet, wenn sie eine stetige Verteilungsfunktion besitzt.[12] Insbesondere bedeutet das, dass P(\{X=x\})=0 für alle x\in\R gilt.

Messbarkeit, Verteilungsfunktion und Erwartungswert[Bearbeiten]

Wenn eine reelle Zufallsvariable X auf dem Ergebnisraum \Omega und eine messbare Funktion g\colon \R \to \R gegeben ist, dann ist auch Y = g(X) eine Zufallsvariable auf demselben Ergebnisraum, da die Verknüpfung messbarer Funktionen wieder messbar ist. g(X) wird auch als Transformation der Zufallsvariablen X unter g bezeichnet. Die gleiche Methode, mit der man von einem Wahrscheinlichkeitsraum (\Omega, \Sigma, P) nach (\R, \mathcal{B}(\R),P^X) gelangt, kann benutzt werden, um die Verteilung von Y zu erhalten.

Die Verteilungsfunktion von Y lautet

F_Y(y) = \operatorname{P}(g(X) \leq y).

Der Erwartungswert einer quasi-integrierbaren Zufallsgröße X von (\Omega, \Sigma, P) nach (\bar{\R}, \mathcal{B}(\bar{\R})) berechnet sich folgend:

\operatorname{E}(X) = \int_\Omega X(\omega)\mathrm{d}P(\omega)\,.

integrierbar und quasi-integrierbar[Bearbeiten]

Eine Zufallsvariable heißt integrierbar, wenn der Erwartungswert der Zufallsvariable existiert und endlich ist. Die Zufallsvariable heißt quasi-integrierbar, wenn der Erwartungswert existiert, möglicherweise aber unendlich ist. Jede integrierbare Zufallsvariable ist folglich auch quasi-integrierbar.

Beispiel[Bearbeiten]

Es sei X eine reelle stetig verteilte Zufallsvariable und Y = X^2.

Dann ist

F_Y(y) = \operatorname{P}(X^2 \leq y).

Fallunterscheidung nach y:

y<0:


  \begin{alignat}{2}
    &            & \operatorname P(X^2 \leq y) &= 0\\
    &\Rightarrow & F_Y(y)                      &= 0
  \end{alignat}

y\geq 0:


  \begin{alignat}{2}
    &            & \operatorname P\left(X^2\leq y\right) &=\operatorname P\left(|X|\leq\sqrt y\right)\\
    &            &                        &= \operatorname P\left(-\sqrt y\leq X\leq\sqrt y\right)\\
    &\Rightarrow & F_Y\left(y\right)                 &= F_X\left(\sqrt y\right) - F_X\left(-\sqrt y\right)
  \end{alignat}

Standardisiertheit[Bearbeiten]

Eine Zufallsvariable nennt man standardisiert, wenn ihr Erwartungswert 0 und ihre Varianz 1 ist. Die Transformation einer Zufallsvariable Y in eine standardisierte Zufallsvariable

X=\frac{Y-\operatorname{E}(Y)}{\sqrt{\operatorname{Var}(Y)}}

bezeichnet man als Standardisierung der Zufallsvariable Y.

Sonstiges[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1. a b c  Jörg Bewersdorff: Glück, Logik und Bluff. Mathematik im Spiel - Methoden, Ergebnisse und Grenzen. 6. Auflage. Springer Spektrum, Wiesbaden 2012, ISBN 978-3-8348-1923-9, S. 39, doi:10.1007/978-3-8348-2319-9 (eingeschränkte Vorschau in der Google-Buchsuche).
  2. Norbert Henze: Stochastik für Einsteiger: Eine Einführung in die faszinierende Welt des Zufalls. Vieweg+Teubner Verlag, 2010, ISBN 978-3-8348-0815-8, doi:10.1007/978-3-8348-9351-2, S. 12.
  3.  Peter Pflaumer, Joachim Hartung, Barbara Heine: Statistik für Wirtschafts- und Sozialwissenschaften: Induktive Statistik. Oldenbourg, München 2001, ISBN 3-486-24015-3, S. 26 (eingeschränkte Vorschau in der Google-Buchsuche).
  4. Jeff Miller: Earliest Known Uses of Some of the Words of Mathematics. Abschnitt R.
  5. Karl Hinderer: Grundbegriffe der Wahrscheinlichkeitstheorie. Springer, Berlin 1980, ISBN 3-540-07309-4 (nicht überprüft)
  6. Loève: Probability Theory. 4. Auflage. Band 1, Springer 1977, ISBN 0-387-90210-4, S. 172f.
  7. Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972, ISBN 0-12-065201-3, Definition 5.6.2.
  8. Olav Kallenberg: Foundations of Modern Probability. 2. Ausgabe. Springer, New York 2002, ISBN 0-387-95313-2, S. 55.
  9. Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972, ISBN 0-12-065201-3 (Definition 5.8.1)
  10. Klaus D. Schmidt: Maß und Wahrscheinlichkeit. Springer-Verlag, Berlin/ Heidelberg 2009, ISBN 978-3-540-89729-3, Kapitel 11.4.
  11. Marek Fisz: Wahrscheinlichkeitsrechnung und mathematische Statistik. 11. Auflage. VEB Deutscher Verlag der Wissenschaften, Berlin 1989, Definition 2.3.3.
  12. Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972, ISBN 0-12-065201-3, S. 210.

Literatur[Bearbeiten]

Weblinks[Bearbeiten]

 Wikibooks: Zufallsvariablen – Lern- und Lehrmaterialien
 Wikibooks: Funktionen von Zufallsvariablen – Lern- und Lehrmaterialien