Verteilungsfunktion

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Dieser Artikel behandelt die Verteilungsfunktion in der Wahrscheinlichkeitsrechnung; zur Verteilungsfunktion in der beschreibenden Statistik siehe Empirische Verteilungsfunktion.

Eine (kumulative) Verteilungsfunktion ist in der Wahrscheinlichkeitstheorie eine reellwertige Funktion, mit der man die Wahrscheinlichkeitsverteilung einer reellen Zufallsvariablen beschreiben kann. In der Regel spricht man einfach von einer Verteilungsfunktion. Die explizite Kennzeichnung als kumulativ soll der Verwechslung mit der Wahrscheinlichkeitsfunktion oder Dichtefunktion vorbeugen.

Die Verteilungsfunktion ist eine der grundlegenden Begriffsbildungen der Wahrscheinlichkeitstheorie, wenngleich in neuerer Literatur der Fokus stärker auf Verteilungen selbst liegt.

Definition[Bearbeiten]

Die Verteilungsfunktion einer reellen Zufallsvariablen X auf einem Wahrscheinlichkeitsraum (\Omega , \Sigma, P) wird meist als diejenige Funktion F_X \colon \R \to [0,1] definiert, die angibt, mit welcher Wahrscheinlichkeit die Zufallsvariable einen Wert kleiner oder gleich x annimmt:[1]

F_X(x) := P(X \le x).

Dabei bezeichnet P(X \le x) die Wahrscheinlichkeit des Ereignisses, das aus denjenigen \omega \in \Omega besteht, für die X(\omega) \le x gilt.

Wenn klar ist, bezüglich welcher Zufallsvariablen die Verteilungsfunktion definiert ist, so wird diese mit F angegeben.

Gelegentlich findet sich auch eine leicht abweichende Definition, siehe den Abschnitt alternative Definition.

Mitunter wird die Definition auf mehrdimensionale Zufallsvariablen erweitert: Ist (X_1, \dotsc, X_n) ein n-Tupel reellwertiger Zufallsvariablen, so definiert man

F_{X_1, \dotsc, X_n}\colon \R^n \to [0,1],(x_1,\dotsc, x_n)\mapsto P(X_1 \le x_1, \dotsc, X_n \le x_n).

Die Verteilungsfunktion wird auch für Wahrscheinlichkeitsmaße auf den reellen Zahlen verwendet: Sei \mathcal{B}_1 die Borelsche \sigma-Algebra über \mathbb{R} und P\colon \mathcal{B}_1\to[0,1] ein Wahrscheinlichkeitsmaß. Dann heißt

F\colon\R\to[0,1],\ x\mapsto P((-\infty,x])

(zu P gehörige) Verteilungsfunktion.[2] In diesem Sinne ist die Verteilungsfunktion einer reellen Zufallsvariablen die Verteilungsfunktion ihres Bildmaßes.

Eigenschaften und Zusammenhang zur Verteilung[Bearbeiten]

Verteilungsfunktionen einer diskreten, einer stetigen und einer gemischten Zufallsvariable.

Jede Verteilungsfunktion F\colon\R\rightarrow [0,1] hat folgende Eigenschaften:

  1. F ist monoton steigend.
  2. F ist rechtsseitig stetig.
  3. \lim_{x \to -\infty} F(x) = 0 und \lim_{x \to \infty} F(x) =  1.

Darüber hinaus ist jede Funktion F\colon\R\rightarrow [0,1], die die Eigenschaften 1-3 erfüllt, eine Verteilungsfunktion. Folglich ist eine Charakterisierung der Verteilungsfunktion mit Hilfe der drei Eigenschaften möglich. So gibt es zu jeder Verteilungsfunktion F\colon\mathbb{R}\rightarrow [0,1] genau solch eine Verteilung \mu_F\colon\mathcal{B}(\mathbb{R})\to[0,1], dass für alle x\in\mathbb{R} gilt:

\mu_F\left(]-\infty,x]\right)=F(x)

Umgekehrt gibt es zu jeder Verteilung \mu\colon\mathcal{B}(\mathbb{R})\to[0,1] eine Verteilungsfunktion F_\mu\colon\mathbb{R}\rightarrow [0,1] derart, dass für alle x\in\mathbb{R} gilt:

\mu\left(]-\infty,x]\right)=F_\mu(x)

Daraus folgt die Korrespondenz von \mu_{(F_\mu)}=\mu und F_{(\mu_F)}=F. Dieser Sachverhalt wird in der Literatur auch Korrespondenzsatz genannt.[3]

Jede Verteilungsfunktion besitzt höchstens abzählbar viele Sprungstellen.

Da jede Verteilungsfunktion rechtsstetig ist, existiert auch der rechtsseitige Grenzwert und es gilt für alle x\in\mathbb{R}:

\mu_F[\{x\}]=F(x)-\lim_{\varepsilon\to0+}F(x-\varepsilon)

Deswegen ist F genau dann stetig, wenn für alle x\in\mathbb{R}:\mu(\{x\})=0 gilt.

Rechnen mit Verteilungsfunktionen[Bearbeiten]

Ist von einer Zufallsvariablen die Verteilungsfunktion bekannt, so kann man die Wahrscheinlichkeit berechnen, mit der die Zufallsvariable Werte zwischen zwei reellen Zahlen annimmt:

P(a<X \leq b) = P(X \leq b) - P(X \leq a) = F(b) - F(a)
Beispiel

Beim Würfeln errechnet sich die Wahrscheinlichkeit, eine Zahl zwischen 3 und einschließlich 5 zu würfeln, zu

P(2 < X \leq 5) = F(5) - F(2) = {5 \over 6} - {2 \over 6} = {3 \over 6} = {1 \over 2}.

Überlebenswahrscheinlichkeit[Bearbeiten]

Beschreibt die Verteilungsfunktion F(t) die Wahrscheinlichkeit des Auftretens eines Defektes in einem System zum Zeitpunkt t, dann erhält man die Wahrscheinlichkeit für das einwandfreie Funktionieren (Überleben) über t hinaus

P(X>t) = 1 - F(t)\, ,

wobei X den Zeitpunkt des Defektes (oder Todes) bezeichnet.

Bezieht man sich nicht auf den Zeitpunkt 0, sondern auf einen späteren Zeitpunkt t_{0}>0, dann erhält man die bedingte Überlebenswahrscheinlichkeit

P\left(X>t_0+t\mid X>t_0\right) = \frac{1-F\left(t_0+t\right)}{1 - F\left(t_0\right)}.

Mit der Beziehung für die Überlebenswahrscheinlichkeit ergibt sich sofort eine Beziehung für die Restlebensdauer


\begin{align}
F\left(t+t_0\mid t_0\right) & = P\left(X\leq t+t_0\mid X>t_0\right)\\
&= \frac{P\left(X\leq t+t_0\right)-P\left(X\leq t_0\right)}{P(X>t_0)}\\
&= \frac{F\left(t+t_0\right)-F\left(t_0\right)}{1-F\left(t_0\right)}
\end{align}

Weiteres[Bearbeiten]

Alternative Definition[Bearbeiten]

Im Einflussbereich der Tradition Kolmogorows, namentlich der mathematischen Literatur des ehem. „Ostblocks“, findet sich parallel zur heute vorherrschenden „Kleiner-gleich“-Konvention der Verteilungsfunktion bis in die jüngere Vergangenheit eine weitere, die statt des Kleiner-gleich-Zeichens das Echt-kleiner-Zeichen verwendet,[4][5] also

F(x) = P(X < x),\quad x\in\R

Bei stetigen Wahrscheinlichkeitsverteilungen stimmen beide Definitionen praktisch überein, bei diskreten Verteilungen dagegen unterscheiden sie sich darin, dass die Verteilungsfunktion im Fall der „Echt-kleiner“-Konvention an den Sprungstellen nicht rechtsseitig, sondern linksseitig stetig ist.

So ergibt sich beispielsweise für die Binomialverteilung bei der heute üblichen „Kleiner-gleich“-Konvention eine Verteilungsfunktion der Form

F(x) = P(X \le x) = \sum_{k=0}^{\lfloor x \rfloor}{n \choose k}p^k (1-p)^{n-k},

bei der „Echt-kleiner“-Konvention dagegen die Schreibweise

F(x) = P(X < x) = \sum_{k=0}^{\lceil x-1 \rceil}{n \choose k}p^k (1-p)^{n-k}

beziehungsweise [6]

F(m) = \sum_{k=0}^{m-1}P(X = k) .

Im Prinzip sind dabei beide Konventionen, solange man sich konsequent auf dem Boden nur der einen oder anderen bewegt, gleichwertig - Vorsicht dagegen ist dann geboten, wenn mit verschiedenen Quellen gearbeitet wird, weil sich Formeln der einen Konvention vielfach nicht ohne weiteres in die andere übernehmen lassen.

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1. Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972. ISBN 0-12-065201-3. Definition 5.6.2.
  2. Norbert Henze: Stochastik I. Einführung in die Wahrscheinlichkeitstheorie und Statistik.
  3. Schmitz, N Vorlesungen über Wahrscheinlichkeitstheorie, Teubner, 1996
  4. Alexandr Alexejewitsch Borowkow: Rachunek prawdopodobieństwa. Państwowe Wydawnictwo Naukowe, Warszawa 1977, Seite 36ff.
  5. Marek Fisz: Wahrscheinlichkeitsrechnung und mathematische Statistik. VEB Deutscher Verlag der Wissenschaften, Elfte Auflage, Berlin 1989, Definition 2.2.1, Seite 51.
  6. [Hrsg.] W.Gellert, Dr.H.Küstner, Dr.M.Hellwich, H.Kästner: Kleine Enzyklopädie Mathematik. VEB Verlag Enzyklopädie Leipzig 1970, Seite 659-660.