Zeitreihenanalyse

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Dieser Artikel oder Abschnitt bedarf einer Überarbeitung. Näheres ist auf der Diskussionsseite angegeben. Hilf mit, ihn zu verbessern, und entferne anschließend diese Markierung.

Eine Zeitreihe ist eine zeitabhängige Folge von Datenpunkten (meist aber keine Reihe im mathematischen Sinne). Typische Beispiele für Zeitreihen sind Börsenkurse, Wahlabsichtsbefragungen oder Wetterbeobachtungen.

Die Zeitreihenanalyse ist die Disziplin, die sich mit der inferenzstatistischen Analyse von Zeitreihen und der Vorhersage (Trends) ihrer künftigen Entwicklung beschäftigt. Sie ist eine Spezialform der Regressionsanalyse.

Zeitreihen: Nähere Begriffsbestimmung, Einteilung und Beispiele[Bearbeiten]

Der Begriff Zeitreihe setzt voraus, dass Daten nicht kontinuierlich, sondern diskret aber in endlichen zeitlichen Abständen anfallen. Aus einem zeitkontinuierlichen Messsignal (oder der kontinuierlichen Aufzeichnung eines Messsignals, zum Beispiel mit einem analogen t-y-Schreiber oder einem analogen Magnetbandgerät) kann eine Zeitreihe durch Abtastung gewonnen werden.

Die Zeitpunkte, denen Datenpunkte zugeordnet werden, können äquidistant, also in konstanten Abständen (beispielsweise alle 5 Sekunden), in anderer Regelmäßigkeit (beispielsweise werktäglich) oder unregelmäßig angeordnet sein. Ein Datenpunkt kann aus einer einzelnen Zahl (skalare Werte, univariate Zeitreihe) oder aus einer Mehrzahl (Tupel) von Zahlenwerten (vektorielle Werte, multivariate Zeitreihe) bestehen. Jedoch müssen alle Datenpunkte in gleicher Weise aus Einzelwerten aufgebaut sein. Typische Zeitreihen entstehen aus dem Zusammenwirken regelhafter und zufälliger Ursachen. Die regelhaften Ursachen können periodisch (saisonal) variieren und/oder langfristige Trends enthalten. Zufällige Einflüsse werden oft als Rauschen bezeichnet.

Gegeben sei ein T-dimensionaler Vektor von Zufallsvariablen  x_1, x_2, \dotsc, x_T mit einer zugehörigen multivariaten Verteilung. Dies kann auch als eine Folge von Zufallsvariablen \{x_t\}^T_{t=1} oder als stochastischer Prozess aufgefasst werden. Eine Stichprobe daraus ergibt als ein mögliches Ergebnis die T reellen Zahlen \left\{x^{(1)}_1, x^{(1)}_2, \dotsc, x^{(1)}_T\right\}. Selbst bei unendlich langer Beobachtung wäre \left\{x^{(1)}_t\right\}^{\infty}_{t=1} nur eine einzige Realisation des stochastischen Prozesses. Solch ein Prozess hat jedoch nicht nur eine Realisation, sondern im Allgemeinen beliebig viele mit gleichen statistischen Eigenschaften. Eine Zeitreihe ist als eine Realisation des datengenerierenden Prozesses definiert. Statt stochastische Prozesse der Dimension T anhand ihrer T-dimensionalen Verteilungsfunktion zu beschreiben, kann man ihn durch die Momente erster und zweiter Ordnung erfassen, also durch

T Erwartungswerte: \operatorname{E}[x_i],\quad i = 1,2,\dots,T,

T Varianzen:\operatorname{V}[x_i] = \operatorname{E}\left[(x_i-\operatorname{E}[x_i])^2\right],\quad i = 1,2,\dotsc,T,

\frac{T(T-1)}{2} Kovarianzen: \operatorname{Cov}[x_i,x_j] = \operatorname{E}[(x_i-\operatorname{E}[x_i])(x_j-\operatorname{E}[x_j])],\quad i<j.

Man spricht auch von Autokovarianzen, da es sich um Kovarianzen desselben Prozesses handelt. Im Spezialfall multivariater Normalverteilung des stochastischen Prozesses gilt, dass er durch die Momente erster und zweiter Ordnung eindeutig festgelegt ist. Für die statistische Inferenz mit Zeitreihen müssen Annahmen getroffen werden, da in der Praxis meist nur eine Realisation des die Zeitreihe generierenden Prozesses vorliegt. Die Annahme der Ergodizität bedeutet, dass Stichprobenmomente, die aus einer endlichen Zeitreihe gewonnen werden für T\rightarrow \infty quasi gegen die Momente der Grundgesamtheit konvergieren.

Zeitreihen fallen in vielen Bereichen an.

Eine besonders komplexe (aber auch reichhaltige) Datensituation liegt vor, wenn man zeitabhängige Mikrodaten besitzt, also Personen- oder Haushaltsdaten für verschiedene Zeitpunkte. Hier spricht man allerdings nicht mehr von Zeitreihendaten, sondern von Trend-, Panel- oder Ereignisdaten, je nach ihrer Zeitstruktur.

Zeitreihenanalyse: Überblick[Bearbeiten]

Ziele der Zeitreihenanalyse können sein

  • die kürzestmögliche Beschreibung einer historischen Zeitreihe
  • die Vorhersage von künftigen Zeitreihenwerten (Prognose) auf der Basis der Kenntnis ihrer bisherigen Werte (Wettervorhersage)
  • die Erkennung von Veränderungen in Zeitreihen (EEG oder EKG-Monitoring in der Medizin bei chirurgischen Eingriffen, Veränderung der globalen Vegetationsphänologie durch anthropogene Klimaänderungen)
  • die Eliminierung von seriellen oder saisonalen Abhängigkeiten oder Trends in Zeitreihen (Saisonbereinigung), um einfache Parameter wie Mittelwerte verlässlich zu schätzen

Die Vorgehensweise im Rahmen der Zeitreihenanalyse lässt sich in folgende Arbeitsphasen einteilen:

  • Identifikationsphase: Identifikation eines geeigneten Modells für die Modellierung der Zeitreihe
  • Schätzphase: Schätzung von geeigneten Parametern für das gewählte Modell
  • Diagnosephase: Diagnose und Evaluierung des geschätzten Modells
  • Einsatzphase: Einsatz des geschätzten und als geeignet befundenen Modells (insbesondere zu Prognosezwecken)

In den einzelnen Phasen ergeben sich Unterschiede, je nachdem ob man lineare Modelle zur Zeitreihenanalyse (Box-Jenkins-Methode, Komponentenmodell) oder nichtlineare Modelle zu Grunde legt. Im Folgenden wird beispielhaft auf die Box-Jenkins-Methode eingegangen.

Identifikationsphase[Bearbeiten]

An erster Stelle sollte die graphische Darstellung der empirischen Zeitreihenwerte stehen. Dieses ist die einfachste und intuitivste Methode. Im Rahmen der graphischen Analyse lassen sich erste Schlüsse über das Vorliegen von Trends, Saisonalitäten, Ausreißern, Varianzinstationarität sowie sonstiger Auffälligkeiten ziehen. Stellt man einen stochastischen Trend (Instationarität) fest (entweder durch die graphische Analyse oder durch einen statistischen Test wie den Augmented Dickey-Fuller-Test), der später durch eine Transformation der Zeitreihe (Differenzieren) bereinigt werden soll, so bietet sich eine Varianzstabilisierung (beispielsweise Box-Cox-Transformation) an. Die Varianzstabilisierung ist wichtig, da nach dem Differenzieren einer Zeitreihe negative Werte in der transformierten Zeitreihe vorkommen können.

Bevor weitergearbeitet werden kann, muss noch die grundsätzliche Frage geklärt werden, ob die Zeitreihe in einem deterministischen Modell (Trendmodell) oder einem stochastischen Modell abgebildet werden soll. Diese beiden Alternativen implizieren unterschiedliche Methoden der Trendbereinigung. Beim Trendmodell erfolgt die Bereinigung mittels einer Regressionsschätzung, beim stochastischen Modell mittels Differenzenbildung.

Schätzphase[Bearbeiten]

In der Schätzphase werden die Modellparameter und -koeffizienten mit Hilfe unterschiedlicher Techniken geschätzt. Für das Trendmodell bietet sich die OLS-Methode, für die Modelle im Rahmen des Box-Jenkins-Ansatzes die Momentenmethode, die nichtlineare Kleinstquadratmethode und die Maximum-Likelihood-Methode für die Schätzung an.

Diagnosephase[Bearbeiten]

In der Diagnosephase werden das Modell oder ggf. mehrere ausgewählte Modelle hinsichtlich ihrer Güte beurteilt. Dabei bietet sich folgende Vorgehensweise an:

1. Schritt: Prüfen, ob die geschätzten Koeffizienten signifikant von Null verschieden sind. Bei einzelnen Koeffizienten erfolgt dies mit Hilfe eines t-Tests, mehrere Koeffizienten zusammen werden mit einem F-Test untersucht.

2. Schritt: Verfährt man nach der Box-Jenkins-Methode, so ist zu prüfen, inwieweit die empirischen Autokorrelationskoeffizienten mit denen übereinstimmen, die sich theoretisch aufgrund der vorher geschätzten Koeffizienten ergeben müssten. Zusätzlich können die partiellen Autokorrelationskoeffizienten sowie das Spektrum analysiert werden.

3. Schritt: Schließlich erfolgt eine sorgfältige Analyse der Residuen. Die Residuen sollten keine Struktur mehr aufweisen. Dabei kann man die Zentriertheit der Residuen mit einem t-Test kontrollieren. Die Konstanz der Varianz kann visuell am Zeitreihengraphen oder durch Berechnung des Effekts verschiedener λ-Werte in einer Box-Cox-Transformation berechnet werden. Um die Autokorrelationsfreiheit der Residuen zu prüfen kann man jeden einzelnen Koeffizienten auf signifikanten Unterschied zu Null prüfen oder die ersten n Koeffizienten gemeinsam auf Signifikanz zu Null testen. Um Letzteres zu klären kann auf die so genannten Portmanteau-Tests zurückgegriffen werden. Hierfür bieten sich beispielsweise Informationskriterien an.

Einsatzphase[Bearbeiten]

In der Einsatzphase gilt es aus der in der Identifikationsphase aufgestellten und als brauchbar befundenen Modellgleichung eine Prognosegleichung zu formulieren. Dabei muss vorher ein Optimalitätskriterium festgelegt werden. Dafür kann der minimal mean squared error (MMSE) genommen werden.

Methoden der Zeitreihenanalyse[Bearbeiten]

Abbildung 1: Verfahren der Zeitreihenanalyse

Die Verlaufsmuster von Zeitreihen können in verschiedene Komponenten zerlegt werden (Komponentenzerlegung). So gibt es systematische oder quasi-systematische Komponenten. Dazu gehören die Trendkomponente als allgemeine Grundrichtung der Zeitreihe, die Saisonkomponente als eine zyklische Bewegung innerhalb eines Jahres, die Zykluskomponente (bei ökonomischen Zeitreihen auch Konjunktur genannt) mit einer Periodenlänge von mehr als einem Jahr sowie eine Kalenderkomponente, die auf Kalenderunregelmäßigkeiten zurückzuführen ist. Als weitere Komponente tritt noch eine Rest- oder irreguläre Komponente auf. Hierunter fallen Ausreißer und Strukturbrüche, die durch historische Ereignisse erklärt werden können, sowie Zufallsschwankungen, deren Ursachen im Einzelnen nicht identifiziert werden können.

Die genannten Komponenten sind nicht direkt beobachtbar. Sie entspringen vielmehr der menschlichen Vorstellung. Somit stellt sich die Frage, wie man diese Komponenten modelliert.

Traditionelle Ansätze betrachten Zufallsschwankungen als strukturneutral und fassen die systematischen Komponenten als deterministische Funktionen der Zeit auf,

Y_t=\beta_0+\beta_1t+Z_t

In neueren Ansätzen haben Zufallschwankungen eine dominierende Rolle bei der Modellierung der systematischen Komponente. Damit wird die Zeitreihe durch einen stochastischen Prozess modelliert, wie einen MA(1)-Prozess:

Y_t=\theta_1Z_{t-1}+Z_t

Dabei ist t der Zeitindex und Z_t eine Zufallsvariable für die Eigenschaft Weißes Rauschen angenommen werden kann. Einen dazu konträren Ansatz der Zeitreihenmodellierung stellt die Chaostheorie (siehe dazu Dimensionalität) dar.

In der Zeitreihenanalyse stehen einige allgemeine mathematische Instrumente zur Verfügung, wie Transformation (Box-Cox-Transformation), Aggregation, Regression, Filterung und gleitende Durchschnitte. Im Folgenden wird davon ausgegangen, dass die Zeitreihe als stochastischer Prozess modelliert werden kann. Dieser Ansatz wird auch als Box-Jenkins-Methode bezeichnet. Für stochastische Prozesse gibt es weitere spezielle Methoden und Instrumente. Hierzu zählen die:

Inferenzstatistische Analyse von Zeitreihen[Bearbeiten]

In der Inferenzstatistik schätzt man die Größe der untersuchten Effekte auf der Basis von Stichproben. Neben den schon genannten Verfahren, bei denen man inferenzstatistisch dann die Fehler der gefundenen Ergebnisse abschätzt, können komplexe Zeitreihen-Modelle spezifiziert und geschätzt werden. Dies wird vor allem in der Ökonometrie für die Wirtschaftsmodelle genutzt. Grundlage ist der Begriff des stochastischen Prozesses; hier ist insbesondere die Gruppe der ARMA-Prozesse zu erwähnen.

Literatur[Bearbeiten]

  • Walter Assenmacher: Einführung in die Ökonometrie. 6. Auflage. Oldenbourg, München 2002, ISBN 3-486-25429-4.
  • Walter Enders: Applied Economic Time Series. Wiley, Hoboken 2003, ISBN 0-471-23065-0.
  • James D. Hamilton: Time Series Analysis. Princeton University Press, ISBN 0-691-04289-6.
  • Klaus Neusser: Zeitreihenanalyse in den Wirtschaftswissenschaften. 3. Auflage. Vieweg+Teubner, Wiesbaden 2011, ISBN 3-834-81846-1.
  • Horst Rinne, Katja Specht: Zeitreihen. Statistische Modellierung, Schätzung und Prognose. Vahlen, München 2002, ISBN 3-800-62877-5.
  • Rainer Schlittgen, Bernd Streitberg: Zeitreihenanalyse. 9. Auflage. Oldenbourg, München 2001, ISBN 3-486-25725-0.
  • Helmut Thome: Zeitreihenanalyse. Eine Einführung für Sozialwissenschaftler und Historiker. Oldenbourg, München 2005, ISBN 3-486-57871-5.
  • Ruey S. Tsay: Analysis of Financial Time Series. Wiley, Hoboken 2005, ISBN 0-471-69074-0.

Software zur Durchführung von Zeitreihenanalysen[Bearbeiten]

Eine Zeitreihenanalyse kann unter anderem mit den kommerziellen Softwarepaketen SPSS, Dataplore, EViews, Stata, SAS, RATS, WinRATS sowie Limdep durchgeführt werden. Zu den freien alternativen Softwarepaketen gehören GNU R, RapidMiner und gretl.

Weblinks[Bearbeiten]