Stationarität

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Dieser Artikel beschäftigt sich mit stationären stochastischen Prozessen; für die gleichnamige Eigenschaft von Folgen siehe Folge (Mathematik).

Stationarität bezeichnet in der Mathematik eine Eigenschaft von zeitlich geordneten, zufälligen oder gesetzmäßigen Vorgängen (stochastische Prozesse oder physikalische Größen), sowie von gewöhnlichen Differentialgleichungen. Dieser Artikel behandelt zeitliche Vorgänge. Stationarität ist bei diesen gegeben, wenn sich ein arithmetischer Mittelwert und eine Aussage über die Abweichungen vom Mittelwert angeben lassen, die selbst nicht von der Zeit abhängen.

Definition[Bearbeiten]

Zeitreihe von Residuen, nichtstationär gemäß dem Dickey-Fuller Test

Ein stochastischer Prozess (x_t)_{t\in \mathbb{T}} heißt stark stationär, wenn die Verteilung von (x_{s+t})_{t\in \mathbb{T}} nicht von der Verschiebung s \in \mathbb{T} abhängt.

Ein stochastischer Prozess (x_t)_{t\in \mathbb{T}} heißt schwach stationär (selten kovarianzstationär[1]), wenn

  1. der Erwartungswert konstant ist, das heißt für alle t \in \mathbb{T} gilt E(x_t) = \mu,
  2. die Varianz endlich ist, das heißt für alle t \in \mathbb{T} gilt  \text{Var}(x_t) < \infty und
  3. die Autokovarianz stabil gegenüber Verschiebungen ist, das heißt für alle s ,t_1, t_2 \in \mathbb{T} gilt \text{Cov}(x_{t_1},x_{t_2})=\text{Cov}(x_{s+t_1},x_{s+t_2}).

Hier bezeichnet E den Erwartungswert. \mathbb{T} steht für eine beliebige Indexmenge (auf der eine binäre Operation + erklärt ist), meist die ganzen Zahlen, manchmal auch die natürlichen Zahlen oder die reellen Zahlen. Häufig wird mit \mathbb{T} die Zeit modelliert. \text{Var} bezeichnet die Varianz, \text{Cov} die Kovarianz.

Interpretation[Bearbeiten]

Stationarität ist eine der bedeutendsten Eigenschaften stochastischer Prozesse in der Zeitreihenanalyse. Mit der Stationarität erhält man Eigenschaften, die nicht nur für einzelne Zeitpunkte gelten, sondern Invarianzen über die Zeit hinweg sind. Die Zeitreihe hat zu allen Zeitpunkten den gleichen Erwartungswert und die gleiche Varianz. (Die wichtigste Klasse von nichtstationären Prozessen sind integrierte Prozesse.)

Mit der ersten Eigenschaft kann man zu einem neuen Prozess x_t-E(x_t) übergehen, für den dann E(x_t-E(x_t))=0 gilt. Dieser Prozess wird auch zentrierter Prozess genannt. Man kann also ohne Beschränkung der Allgemeinheit annehmen, ein stationärer stochastischer Prozess habe den Mittelwert 0.

Die zweite Eigenschaft sagt schlichtweg, dass jede der Zufallsvariablen endliche Varianz hat und somit zu dem Hilbertraum L^2 gehört. Hieraus folgt dann auch, dass der Erwartungswert E(x_t) existiert.

Die dritte Forderung stellt eine Beziehung zwischen den unterschiedlichen Zeitpunkten her und ist damit die bedeutendste Eigenschaft. Sie sagt aus, dass die Kovarianzen zwischen den Zeitpunkten nicht von den beiden Zeitpunkten selbst, sondern nur von dem Abstand r=t_2-t_1 der beiden Zeitpunkte zueinander abhängt. Die Bedingung kann auch so formuliert werden, dass \gamma(r) = Cov(x_{t_1},x_{t_1 + r}) eine Funktion nur einer einzigen Variablen r ist. Dies hat unter anderem zur Konsequenz, dass \Gamma=E(xx^*)-E(x)E(x^*) eine unendliche Block Toeplitz-Matrix ist.

Geometrische Bedeutung[Bearbeiten]

Die geometrische Interpretation des univariaten Falles (n=1) greift auf den Hilbertraum L^2 zurück, dessen Elemente die einzelnen Zufallsvariablen des Prozesses sind. Die geometrische Interpretation unterstützt das tiefere Verständnis des Begriffs der Stationarität.

Da E(x_t^2) eine Norm in L^2 ist, kann die Forderung E(x_t^2)=\gamma(0) so verstanden werden, dass alle Prozessvariablen gleich lang sind, d. h. auf einer Kugel liegen.

E(x_{t+s}x_t)=\gamma(s) sagt dann, obiger Interpretation folgend, dass für festes s alle x_t den gleichen Winkel einschließen. Erhöht man s um Eins, so wird immer um denselben Winkel weitergedreht.

Forderung (ii) bedeutet nichts anderes als \langle x_t,1 \rangle =m, also der Winkel zwischen der Einheit und jeder Prozessvariablen ist konstant. Hier wird ein Breitengrad aus der Einheitskugel ausgeschnitten.

Stationarisierung[Bearbeiten]

Eine nichtstationäre Zeitreihe stationär zu machen ist eine wichtige erste Aufgabe bei der Zeitreihenanalyse. Weit verbreitete Methoden sind hier die Bildung von Differenzen, das Umskalieren oder das Logarithmieren der Zeitreihe. Allgemeiner kann man versuchen eine stationäre Zeitreihe zu erhalten, indem man ein geeignetes Trend-Saison-Modell verwendet.

Beispiele[Bearbeiten]

Der wichtigste (schwach) stationäre Prozess ist das weiße Rauschen. Des Weiteren sind noch bestimmte Gauss-Prozesse und ARMA-Modelle stationär. Von theoretischer Bedeutung sind auch noch harmonische Prozesse, die unter gewissen Bedingungen stationär sind.

Literatur[Bearbeiten]

  • Peter J. Brockwell, Richard A. Davis: Time Series: Theory and Methods. Springer Verlag, Berlin 2002, ISBN 0387974296
  • G. E. P. Box, G. M. Jenkins: Times Series Analysis: Forecasting and Control. 3. Auflage, ISBN 0130607746

Fußnote[Bearbeiten]

  1. nur 332 Google-Suchergebnisse, v.a. Uniskripte und Statistikbücher, verglichen mit ca. 149.000 teilweise vergleichbar hochwertigen Ergebnissen für schwach stationär. Im Englischen sind beide Begriffe etwa gleich populär, 2.360.000 vs. 2.870.000 Ergebnisse. Abgerufen am 27. Mai 2012, 01:38