Verteilungsfunktion

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Dieser Artikel behandelt die Verteilungsfunktion in der Wahrscheinlichkeitsrechnung; zur Verteilungsfunktion in der beschreibenden Statistik siehe Empirische Verteilungsfunktion.

Eine (kumulative) Verteilungsfunktion ist in der Wahrscheinlichkeitstheorie eine reellwertige Funktion, mit der man die Wahrscheinlichkeitsverteilung einer reellen Zufallsvariablen beschreiben kann. In der Regel spricht man einfach von einer Verteilungsfunktion. Die explizite Kennzeichnung als kumulativ soll der Verwechslung mit der Wahrscheinlichkeitsfunktion oder Dichtefunktion vorbeugen.

Die Verteilungsfunktion ist eine der grundlegenden Begriffsbildungen der Wahrscheinlichkeitstheorie, wenngleich in neuerer Literatur der Fokus stärker auf Verteilungen selbst liegt.

Definition[Bearbeiten]

Die Verteilungsfunktion einer reellen Zufallsvariablen X auf einem Wahrscheinlichkeitsraum (\Omega , \Sigma, P) wird meist als diejenige Funktion F_X \colon \R \to [0,1] definiert, die angibt, mit welcher Wahrscheinlichkeit die Zufallsvariable einen Wert kleiner oder gleich x annimmt:[1]

F_X(x) := P(X \le x).

Dabei bezeichnet P(X \le x) die Wahrscheinlichkeit des Ereignisses, das aus denjenigen \omega \in \Omega besteht, für die X(\omega) \le x gilt.

Wenn klar ist, bezüglich welcher Zufallsvariablen die Verteilungsfunktion definiert ist, so wird diese mit F angegeben.

Gelegentlich findet sich auch eine leicht abweichende Definition, siehe den Abschnitt alternative Definition.

Mitunter wird die Definition auf mehrdimensionale Zufallsvariablen erweitert: Ist (X_1, \dotsc, X_n) ein n-Tupel reellwertiger Zufallsvariablen, so definiert man

F_{X_1, \dotsc, X_n}\colon \R^n \to [0,1],(x_1,\dotsc, x_n)\mapsto P(X_1 \le x_1, \dotsc, X_n \le x_n).

Die Verteilungsfunktion wird auch für Wahrscheinlichkeitsmaße auf den reellen Zahlen verwendet: Sei \mathcal{B}_1 die Borelsche \sigma-Algebra über \mathbb{R} und P\colon \mathcal{B}_1\to[0,1] ein Wahrscheinlichkeitsmaß. Dann heißt

F\colon\R\to[0,1],\ x\mapsto P((-\infty,x])

(zu P gehörige) Verteilungsfunktion.[2] In diesem Sinne ist die Verteilungsfunktion einer reellen Zufallsvariablen die Verteilungsfunktion ihres Bildmaßes.

Eigenschaften und Zusammenhang zur Verteilung[Bearbeiten]

Verteilungsfunktionen einer diskreten, einer stetigen und einer gemischten Zufallsvariable.

Jede Verteilungsfunktion F\colon\R\rightarrow [0,1] hat folgende Eigenschaften:

  1. F ist monoton steigend.
  2. F ist rechtsseitig stetig.
  3. \lim_{x \to -\infty} F(x) = 0 und \lim_{x \to \infty} F(x) =  1.

Darüber hinaus ist jede Funktion F\colon\R\rightarrow [0,1], die die Eigenschaften 1-3 erfüllt, eine Verteilungsfunktion. Folglich ist eine Charakterisierung der Verteilungsfunktion mit Hilfe der drei Eigenschaften möglich. So gibt es zu jeder Verteilungsfunktion F\colon\mathbb{R}\rightarrow [0,1] genau solch eine Verteilung \mu_F\colon\mathcal{B}(\mathbb{R})\to[0,1], dass für alle x\in\mathbb{R} gilt:

\mu_F\left(]-\infty,x]\right)=F(x)

Umgekehrt gibt es zu jeder Verteilung \mu\colon\mathcal{B}(\mathbb{R})\to[0,1] eine Verteilungsfunktion F_\mu\colon\mathbb{R}\rightarrow [0,1] derart, dass für alle x\in\mathbb{R} gilt:

\mu\left(]-\infty,x]\right)=F_\mu(x)

Daraus folgt die Korrespondenz von \mu_{(F_\mu)}=\mu und F_{(\mu_F)}=F. Dieser Sachverhalt wird in der Literatur auch Korrespondenzsatz genannt.[3]

Jede Verteilungsfunktion besitzt höchstens abzählbar viele Sprungstellen.

Da jede Verteilungsfunktion rechtsstetig ist, existiert auch der rechtsseitige Grenzwert und es gilt für alle x\in\mathbb{R}:

\mu_F[\{x\}]=F(x)-\lim_{\varepsilon\to0+}F(x-\varepsilon)

Deswegen ist F genau dann stetig, wenn für alle x\in\mathbb{R}:\mu(\{x\})=0 gilt.

Rechnen mit Verteilungsfunktionen[Bearbeiten]

Ist von einer Zufallsvariablen die Verteilungsfunktion bekannt, so kann man die Wahrscheinlichkeit berechnen, mit der die Zufallsvariable Werte zwischen zwei reellen Zahlen annimmt:

P(a<X \leq b) = P(X \leq b) - P(X \leq a) = F(b) - F(a)
Beispiel

Beim Würfeln errechnet sich die Wahrscheinlichkeit, eine Zahl zwischen 3 und einschließlich 5 zu würfeln, zu

P(2 < X \leq 5) = F(5) - F(2) = {5 \over 6} - {2 \over 6} = {3 \over 6} = {1 \over 2}.

Überlebenswahrscheinlichkeit[Bearbeiten]

Beschreibt die Verteilungsfunktion F(t) die Wahrscheinlichkeit des Auftretens eines Defektes in einem System zum Zeitpunkt t, dann erhält man die Wahrscheinlichkeit für das einwandfreie Funktionieren (Überleben) über t hinaus

P(X>t) = 1 - F(t)\, ,

wobei X den Zeitpunkt des Defektes (oder Todes) bezeichnet.

Bezieht man sich nicht auf den Zeitpunkt 0, sondern auf einen späteren Zeitpunkt t_{0}>0, dann erhält man die bedingte Überlebenswahrscheinlichkeit

P\left(X>t_0+t\mid X>t_0\right) = \frac{1-F\left(t_0+t\right)}{1 - F\left(t_0\right)}.

Mit der Beziehung für die Überlebenswahrscheinlichkeit ergibt sich sofort eine Beziehung für die Restlebensdauer


\begin{align}
F\left(t+t_0\mid t_0\right) & = P\left(X\leq t+t_0\mid X>t_0\right)\\
&= \frac{P\left(X\leq t+t_0\right)-P\left(X\leq t_0\right)}{P(X>t_0)}\\
&= \frac{F\left(t+t_0\right)-F\left(t_0\right)}{1-F\left(t_0\right)}
\end{align}

Weiteres[Bearbeiten]

Alternative Definition[Bearbeiten]

Gelegentlich wird in der Literatur die Verteilungsfunktion in der Tradition von Kolmogorow mit echt-kleiner statt mit kleiner-gleich definiert,[4] also

F(x) = P(X < x),\quad x\in\R

Bei stetigen Wahrscheinlichkeitsverteilungen stimmen beide Definitionen überein; bei diskreten Verteilungen unterscheiden sie sich darin, dass bei der „echt-kleiner“-Definition die Verteilungsfunktion an den Sprungstellen nicht rechtsseitig, sondern linksseitig stetig ist. Beispielsweise ergibt sich für die Binomialverteilung die Verteilungsfunktion bei der „kleiner-gleich“-Definition als

P(X \le x) = \sum_{k=0}^{\lfloor x \rfloor}{n \choose k}p^k (1-p)^{n-k},

bei der „echt-kleiner“-Definition hingegen als

 P(X < x) = \sum_{k=0}^{\lceil x-1 \rceil}{n \choose k}p^k (1-p)^{n-k} .

Im Prinzip sind aber beide Definitionen gleichwertig.

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1. Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972. ISBN 0-12-065201-3. Definition 5.6.2.
  2. Norbert Henze: Stochastik I. Einführung in die Wahrscheinlichkeitstheorie und Statistik
  3. Schmitz, N Vorlesungen über Wahrscheinlichkeitstheorie, Teubner, 1996
  4. z.B. Marek Fisz: Wahrscheinlichkeitsrechnung und mathematische Statistik. VEB Deutscher Verlag der Wissenschaften, Elfte Auflage, Berlin 1989, Definition 2.2.1, Seite 51.