Box-Cox-Transformation

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Die Box-Cox-Transformation ist ein mathematisches Instrument der Regressionsanalyse und der Zeitreihenanalyse, mit dem eine Stabilisierung der Varianz erreicht werden soll. Die Formel lautet:

Für das Finden eines geeigneten Wertes für λ gibt es zwei Methoden. Einmal das eher heuristische Gittersuchverfahren und zum anderen die Schätzung von λ im Rahmen einer Maximum-Likelihood-Schätzung der ARMA-Koeffizienten.

Literatur[Bearbeiten | Quelltext bearbeiten]

  • George E. P. Box und David R. Cox: An analysis of transformations. Journal of the Royal Statistical Society Series B 26(2). 1964. S. 211–252.