Erneuerungsprozess

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Ein Erneuerungsprozess ist ein spezieller stochastischer Prozess, der in der Erneuerungstheorie untersucht wird. Er ist ein Zählprozess, dessen Zwischenankunftszeiten unabhängige, identisch verteilte, nichtnegative Zufallsvariablen sind.

Begriffsherkunft[Bearbeiten]

Der Begriff Erneuerung hat seinen Ursprung in industriellen Anwendungen der Wahrscheinlichkeitsrechnung. Typischerweise besitzen Systemkomponenten (z. B. Maschinen, Werkzeuge, Beleuchtungskörper) Lebenszeiten, die den Charakter nichtnegativer Zufallsvariablen haben. Wenn solche Komponenten ausfallen, müssen sie durch gleichartige Komponenten ersetzt (erneuert) werden, um das Funktionieren des Systems zu gewährleisten.

Definitionen[Bearbeiten]

X_i, i=1,2,\dotsc seien die Zwischenankunftszeiten, z. B. die Lebenszeiten von Komponenten. Diese Zufallsvariablen werden als unabhängig und identisch verteilt angenommen.

(X_n)_{n \in \mathbb{N}} wird als Erneuerungsfolge bezeichnet.

Ihre gemeinsame kummulierte Wahrscheinlichkeitsverteilung werde mit F bezeichnet, das heißt es gilt F(t)=P(X_i \le t). Die Wahrscheinlichkeitsdichte im Falle der stetigen Differenzierbarkeit ist definiert durch

f(t)dt =d F(t) = P(X_i \in [t,t+dt[)

S_n ist der Zeitpunkt der n-ten Erneuerung, das heißt

S_n=\sum_{i=1}^n X_i,\qquad S_0\equiv 0.

Die Verteilung von S_n werde mit F_n bezeichnet, d.h. F_n(t) = P(S_n \le t)

Der Erneuerungsprozess \{N(t), t\ge 0\} ist nun der durch

N(t) = \sup\{n\in \N_0|\,S_n\le t\}

definierte stochastische Prozess, das heißt N(t) ist die Anzahl der Erneuerungen bis zum Zeitpunkt t.

Die Äquivalenz der Beschreibung über N(t) und S_n kommt in folgender grundlegenden Beziehung zum Ausdruck

\{N(t) \ge n\}=\{S_n \le t\}

Beide Mengen enthalten genau diejenigen Elemente des zugrunde liegenden Wahrscheinlichkeitsraums, für die bis zum Zeitpunkt t mindestens n Erneuerungen stattgefunden haben.

Eigenschaften[Bearbeiten]

S_n ist Summe identisch verteilter, unabhängiger Zufallsvariablen, daher ist F_n die n-fache Faltung der Verteilung F und wird rekursiv wie folgt berechnet

F_n(t) = \int_{0}^{t} F_{n-1}(s) f(t-s) ds  ,

wobei  f die Wahrscheinlichkeitsdichte von oben ist.

Es gilt [1]

 P(N(t)=n) = P(S_n \leq t)-P(S_{n+1} \leq t) = F_n(t)-F_{n+1}(t)

Mit obiger Notation sehen wir, dass folgende Integralgleichung erfüllt ist.


\begin{matrix}
P(N(t)=n) &=& \int_{0}^{t} P(N(s)=n-1) f(t-s) ds \\
\end{matrix}

Beweis

Wir gehen von   P(N(t)=n) = F_n(t)-F_{n+1}(t) aus und ersetzen   F_n(t)=\int_{0}^{t} F_{n-1}(s) f(t-s) ds und  F_{n-1}(t)=\int_{0}^{t} F_{n-2}(s) f(t-s) ds ein und erhalten
  P(N(t)=n) = \int_{0}^{t} F_{n-1}(s) f(t-s) ds - \int_{0}^{t} F_{n-2}(s) f(t-s) ds
Nach Zusammenfassen der Integrale und unter Beachtung von  F_{n-1}(s)-F_{n-2}(s)=P(N(s)=n-1) folgt die Behauptung.

Die eben dargestellte Integralgleichung dient als Ausgangspunkt einer Theorie von Zählprozessen, deren Wartezeiten nicht exponentialverteilt sind.[2][3] Sie ist somit eine Basis für die Generalisierung der Theorie der Poissonprozesse.

Die mittlere Anzahl der Erneuerungen im Zeitintervall (0,t) heißt Erneuerungsfunktion und wird mit m bezeichnet. Es gilt


m(t)=E[N(t)] = \sum_{n=1}^\infty n\left[F_n(t)-F_{n+1}(t)\right]=\sum_{n=1}^\infty F_n(t) \,

Einzelnachweise[Bearbeiten]

  1. Geoffry R. Grimmett, David R. Stirzaker Probability and Random Processes. Clarendon Press, Oxford 1982, ISBN 0-19-853185-0.
  2. Rainer Winkelmann: Duration Dependence and Dispersion in Count Data. In: Journal of Business & Economic Statistics. 13(4), 1995, S. 467–474.
  3. Blake McShane, Moshe Adrian, Eric T. Bradlow, Peter S. Fader: Count Models Based On Weibull Interarrival Times. In: Journal of Business & Economic Statistics. 26(3), 2008, S. 369–378.