ARMA-Modell

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Dieser Artikel oder Abschnitt bedarf einer Überarbeitung. Näheres ist auf der Diskussionsseite angegeben. Hilf mit, ihn zu verbessern, und entferne anschließend diese Markierung.

Das Akronym ARMA (Autoregressive-Moving Average) und die daran angelehnten Kunstwörter ARMAX und ARIMA bezeichnen lineare Modelle für stationäre, zeitdiskrete stochastische Prozesse. Sie werden zur Zeitreihenanalyse in der Messtechnik, in der Statistik und dort insbesondere in der Ökonometrie eingesetzt. Da sie eine zentrale Rolle in der Box-Jenkins-Methode spielen, sind sie dort auch unter dem Namen Box-Jenkins-Modelle bekannt. Die Prognosemodelle der Wirtschaftsinstitute und Banken sind in der Regel aus ARMA-Modellen zusammengesetzt. Man kann diese Modelle auch als lineare Differenzengleichungen bzw. Differenzengleichungssysteme ansehen. Die durch sie definierten Prozesse werden zusammenfassend auch als lineare stochastische Prozesse bezeichnet.

Mathematische Definition eines ARMA-Prozesses[Bearbeiten]

In das Modell fließen Rauschterme und gewichtete frühere Werte der Zeitreihe linear ein. ARMA-Modelle sind eines der Hauptwerkzeuge zur Vorhersage von beobachteten, stochastischen Signalen. Sind die zu modellierenden Signale nicht stationär, dann muss man sie gegebenenfalls vor der Modellierung differenzieren, um den Trend zu beseitigen.

MA-Modell[Bearbeiten]

y_t=\sum_{j=0}^m b_j \epsilon_{t-j}

Das Signal setzt sich aus einem durch ein gleitendes Mittel (Moving Average) der Länge m geglätteten Signal, einer (nicht direkt messbaren) anderen Zeitreihe und einem Rauschterm (j=0) zusammen.

Siehe auch: FIR-Filter

AR-Modell[Bearbeiten]

y_t=\epsilon_t + \sum_{i=1}^n a_i y_{t-i}

Das Signal setzt sich aus einem geglätteten Signal seiner n vorhergehenden Werte und einem Rauschterm zusammen.

Siehe auch: IIR-Filter

ARMA-Modell[Bearbeiten]

y_t=\epsilon_t + \sum_{i=1}^n a_i y_{t-i} + \sum_{j=1}^m b_j \epsilon_{t-j}

Dieses Modell wird auch als ARMA(n,m)-Modell bezeichnet, wobei n und m die Ordnung des Prozesses heißen.

Mit Hilfe des so genannten Verschiebungsoperators L (von lag=Zeitverschiebung):

L^d x_t = x_{t-d}

schreibt man kürzer auch:

 (1-\Phi(L))y_t = (1+\theta(L)) \epsilon_t

wobei \Phi und θ beides endliche Polynome (der Grade n und m) darstellen:

\Phi(x) = \Phi_1 x+ \cdots + \Phi_n x^n

Inhaltliche Interpretation: Was ist MA und was ist AR?[Bearbeiten]

Moving Average[Bearbeiten]

\epsilon_t ist ein so genanntes weißes Rauschen, eine Zufallsvariable, die für alle t paarweise unabhängig und identisch (meist gauß-)verteilt ist mit Erwartungswert \mu und der Varianz \sigma^2. Die Abhängigkeit beschränkt sich bei MA-Termen auf den Erwartungswert: Ist

Y_t=\alpha \sum_{j}^{} \epsilon_{t-j}

dann wird lediglich der Erwartungswert von Y mit jedem Zeitschritt um \alpha \mu verschoben. Y_t selbst ist stochastisch bestimmt.

Auto-Regression[Bearbeiten]

Anders beim Auto-Regressionsteil: Hier ist Y_t deterministisch von der Vergangenheit abhängig. In

Y_t=Y_{t-1}+\epsilon

unterliegt Y_t genau dann einer Störung, wenn Y_{t-1} einer Störung unterliegt.

ARMA-Modelle in der Statistik[Bearbeiten]

Regressionsmodelle spielen in der Statistik eine große Rolle. In der Ökonometrie müssen oft mehrere Zeitreihen der Form x_1(t), x_2(t)...x_n(t) miteinander in Zusammenhang gebracht werden, die sog. Wirtschaftsindikatoren, also z. B. Zins, Arbeitslosigkeit, Investitionen usw. Man unterscheidet zwischen endogenen zeitabhängigen Variablen Y(t) (die also vom Modell erklärt werden) und exogenen Variablen X(t), die von außen definiert werden. Mit ihnen kann man das allgemeine lineare Gleichungssystem

BY=AX+\epsilon

formulieren. B, Y, A und X sind Matrizen mit sovielen Zeilen wie Beobachtungen und sovielen Spalten wie Variablen des jeweiligen Typs. Jeder Zeitpunkt zählt als Beobachtung. Geht ein und dieselbe Variable zu verschiedenen Zeitpunkten (also als Y(t), Y(t-1) usw.) in das Gleichungssystem ein, so zählt dies als mehrere Variablen. Die Gleichung Y(t)=\beta_1 Y(t-1)+\beta_2 Y(t-2)+\epsilon hat also drei Variablen. Das ist entscheidend für die ARMA-Modelle. \epsilon ist ein Vektor mit sovielen Zeilen wie Beobachtungen.

ARMAX und ARIMA[Bearbeiten]

Ist der Regressor X dabei, spricht man von ARMAX-Modellen. Gehen nur die Differenzen von Y in das Modell ein, so dass hinterher die Modellprognosen wieder “integriert” werden müssen, so spricht man von ARIMA-Modellen, das I steht für "Integrated". Die Differenzen sollen hierbei für die Berechnung ein stationäres und um nicht-saisonale Trends bereinigtes Modell erzeugen.

Alle Modelle der ARMA-Familie haben dieses lineare Gleichungssystem zur Grundlage. Viele Systeme können mit einer einfachen linearen Regression geschätzt werden. Voraussetzung dafür ist, dass die Standardfehler der Schätzer unverzerrt sind, d. h. die Störterme \epsilon von Y nicht autokorrelieren. Die Korrelation der Fehler untereinander verzerrt zwar nicht den Schätzer selbst, jedoch den zugehörigen Standardfehler (meist wird er stark unterschätzt). Wenn Autoregressionsterme der Form

y_t=\epsilon_t + \sum_{i=1}^n a_i y_{t-i}

vorliegen, liegt in der Regel eine solche Autokorrelation der Störterme vor.

Interpretation des Moving-Average-Teils[Bearbeiten]

Das lineare Gleichungssystem wird um einen Term der Form

\epsilon=\sum_{j=1}^m \gamma_j \epsilon_{t-j}+\epsilon',

also um eine Autoregression der Fehlerterme erweitert. Praktisch spielen vor allem Erweiterungen der Ordnung 1:

\epsilon=\gamma_1 \epsilon_{t-1}+\epsilon'

eine Rolle. Das ist ein Markow-Prozess.

Der Begriff "MA" für solche rein stochastischen Prozesse ist eher irreführend. ARMA-Modelle sind also Simultan-Modelle für deterministische Zusammenhangsmodelle (AR-Anteil, entspricht Regressionsmodell) und stochastischen Prozessen (MA-Anteil).

ARMA-Modelle (auch ARMAX, ARIMA) werden durch nichtlineare Regressionsverfahren geschätzt.

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

  • Box, G.E.P. und Jenkins, G.M.: Time series analysis: Forecasting and control. Holden-Day, San Francisco 1970
  • McCleary, R. und Hay, R.A.: Applied Time Series Analysis for the Social Sciences. Sage Publications, Beverly Hills 1986
  • Hamilton, James D.: Time Series Analysis. Princeton University Press, Princeton 1994
  • Enders, W.: Applied Econometic Time Series. John Wiley & Sons INC. 1995
  • Mills, Terence C.: The Econometric Modelling of Financial Time Series. 2nd Edition, Cambridge University Press 1999
  • Tsay, Ruey S.: Analysis of Financial Time Series. 2nd Edition, Wiley Series in Prob. and Statistics 2005
  • Stier, W.: Methoden der Zeitreihenanalyse. Springer 2001