Box-Cox-Transformation

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Die Box-Cox-Transformation ist ein mathematisches Instrument der Regressionsanalyse und der Zeitreihenanalyse, mit dem eine Stabilisierung der Varianz erreicht werden soll. Die Formel lautet:


Y^{(\lambda)}=\left\{\begin{matrix} \frac{(Y_t+c)^\lambda-1} {\lambda} & \mbox{für }\lambda \ne 0 \\ ln(Y_t+c) & \mbox{für }\lambda = 0\end{matrix}\right.

Für das Finden eines geeigneten Wertes für λ gibt es zwei Methoden. Einmal das eher heuristische Gittersuchverfahren und zum anderen die Schätzung von λ im Rahmen einer Maximum-Likelihood-Schätzung der ARMA-Koeffizienten.

Literatur[Bearbeiten]

  • George E. P. Box und David R. Cox: An analysis of transformations. Journal of the Royal Statistical Society Series B 26(2). 1964. S. 211–252.