Woldsche Zerlegung

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Die Woldsche Zerlegung bezeichnet eine spezielle Zerlegung in der Zeitreihenanalyse, einem Teilgebiet der mathematischen Statistik. Die Zerlegung ist nach Herman Wold benannt, der 1938 zeigte, dass die Zufallsvariablen  x_t eines zeitdiskreten kovarianzstationären, stochastischen Prozesses in zwei Teile zerlegt werden können:

  • in einen deterministischen, also nicht zufälligen Anteil  \mu_t und
  • in einen rein nichtdeterministische Anteil, der durch Glättung von Zufallsvariablen  u_t entsteht:
 x_t  =\mu_t+\sum_{j=0}^{\infty}\psi_ju_{t-j}

Die Zufallsvariablen u_t haben den Erwartungswert null und eine konstante Varianz und sind paarweise unkorreliert:

\operatorname{E}(u_t) = 0 und \operatorname{E}(u_tu_s) = \begin{cases} \sigma^2 & \mathrm{f\ddot{u}r} \quad t = s \\
0 & \text{sonst} \end{cases}

Die Glättungsfolge der  \psi_j ist

  • möglicherweise unendlich lang (kann aber auch endlich sein)
  • quadratisch beschränkt: \sum_{j=0}^{\infty}|\psi^2_j | < \infty
  • „kausal“ (es gibt keine Terme j < 0)
  • die  \psi_j sind konstant (also unabhängig von der Zeit t)

Üblicherweise wird gesetzt:

 \psi_0=1

Rein nichtdeterministisch bedeutet, dass alle linearen deterministischen Komponenten von (u_t) zuvor abgezogen wurden. Eine solche Zeitreihe wird auch weißes Rauschen genannt. Eine lineare deterministische Komponente wie \mu_t kann aufgrund ihrer eigenen vergangenen Werte perfekt vorhergesagt werden. Dies gilt zum Beispiel für einen konstanten Mittelwert, periodische, polynomiale oder exponentielle Folgen in den Zeitpunkten t.

Die geforderte quadratische Konvergenz der Reihe der \psi_j garantiert die Existenz der zweiten Momente des Prozesses. Für die Gültigkeit dieser Zerlegung müssen keine Verteilungsannahmen getroffen werden und u_t muss nicht unabhängig sein; es genügt Unkorreliertheit.

Für den Erwartungswert erhält man \operatorname{E}(x_t - \mu_t) = \operatorname{E} \left(\sum_{j=0}^{\infty} \psi_ju_{t-j}\right) = \sum_{j=0}^{\infty} \psi_j\operatorname{E}(u_{t-j})=0

das heißt es gilt:

 \operatorname{E}(x_t) = \mu_t

Die Varianz berechnet sich folgendermaßen:

\operatorname{V}(x_t) = \operatorname{E}[(x_t-\mu_t)^2] = \operatorname{E} [(u_t + \psi_1u_{t-1} + \psi_2u_{t-2} + \cdots)^2]

Wegen \operatorname{E}(u_tu_{t-j}) = 0 für j \ne 0 vereinfacht sich dieser Ausdruck zu

\operatorname{V}(x_t) = \operatorname{E}(u_t^2)+\psi_1^2\operatorname{E}(u_{t-1}^2)+\psi_2^2\operatorname{E}(u_{t-2}^2)+ \cdots = \sigma^2\sum_{j=0}^{\infty} \psi_j^2

Die Varianz ist somit endlich und zeitunabhängig. Entsprechend erhält man mit  \tau > 0 die Autokovarianzen


\begin{align}
& {} \qquad \operatorname{Cov}(x_t,x_{t+\tau}) = \operatorname{E}[(x_t - \mu_t)(x_{t+\tau} - \mu_{t+\tau})] \\
& = \operatorname{E}\left[(u_t + \psi_1u_{t-1} + \cdots + \psi_\tau u_{t-\tau} + \psi_{\tau + 1} u_{t - \tau - 1} + \cdots)\right. \\
& {} \qquad\qquad \left.(u_{t + \tau} + \psi_1u_{t + \tau - 1} + \cdots + \psi_\tau u_t + \psi_{\tau+1} u_{t-1} + \cdots)\right] \\
& = \sigma^2 (\psi_\tau + \psi_1 \psi_{\tau + 1} + \psi_2 \psi_{\tau + 2} + \cdots) \\
& = \sigma^2\sum_{j=0}^\infty \psi_j\psi_{\tau+j} < \infty
\end{align}

mit \psi_0 = 1. Man sieht, dass die Autokovarianzen nur eine Funktion der Zeitdifferenz \tau sind. Somit sind alle Bedingungen für die Kovarianzstationarität erfüllt. Die Autokorrelationsfunktion lässt sich wie folgt schreiben:

\rho(\tau) = \frac{\sum_{j=0}^{\infty} \psi_j \psi_{\tau + j}}{\sum_{j=0}^{\infty} \psi^2_j}\text{ mit }\tau = 1, 2, 3, \dots

Beispielsweise lassen sich ARMA-Modelle in die Woldsche Darstellung bringen. Diese Darstellung ist eher von theoretischem Interesse, denn in praktischen Anwendungen sind Modelle mit unendlich vielen Parametern unbrauchbar.

Wold-Zerlegung in der Funktionalanalysis[Bearbeiten]

Es gibt auch eine Wold’sche Zerlegung in der Funktionalanalysis, siehe Shiftoperator.

Literatur[Bearbeiten]

  • Herman Wold A Study in the Analysis of Stationary Time Series, Stockholm: Almquist und Wicksell 1938
  • Gerhard Kirchgässner, Jürgen Wolters: Einführung in die moderne Zeitreihenanalyse, 1. Auflage, München: Vahlen, 2006, ISBN 978-3-800-63268-8, S.19f

Siehe auch[Bearbeiten]