Orthogonale Regression

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Orthogonale Regression. Die roten Linien stellen die Abstände der Messwertpaare von der Ausgleichsgeraden dar.

In der Statistik wird mit der orthogonalen Regression eine Ausgleichsgerade für eine endliche Menge metrisch skalierter Datenpaare (xi,yi) nach der Methode der kleinsten Quadrate berechnet. Wie in anderen Regressionsmodellen wird dabei die Summe der quadrierten Abstände der (xi,yi) von der Geraden minimiert. Im Unterschied zur linearen Regression werden nicht die Abstände in x- bzw. y-Richtung verwendet, sondern die orthogonalen Abstände.

Die orthogonale Regression ist ein wichtiger Spezialfall der Deming-Regression. Sie wurde 1878 von Robert James Adcock in die Statistik eingeführt[1] und in allgemeinerem Rahmen 1943 von W. E. Deming für technische und ökonomische Anwendungen bekannt gemacht.[2]

Rechenweg[Bearbeiten]

Es wird eine Gerade y = β0 + β1x gesucht, die die Summe der quadrierten Abstände der (xi,yi) von den zugehörigen Fußpunkten (xi*,yi*) auf der Geraden minimiert. Wegen yi* = β0 + β1xi* berechnet man diese quadrierten Abstände zu (yi - β0 - β1xi*)2 + (xi - xi*)2, deren Summe minimiert werden soll:

SSR = \sum_{i=1}^n\Big((y_i-\beta_0-\beta_1x^*_i)^2 + (x_i-x^*_i)^2\Big) \ \to\ \min_{\beta_0,\beta_1,x_i^*} SSR

Für die weitere Rechnung werden die folgenden Hilfswerte benötigt:

\overline{x} = \frac{1}{n}\sum_{i=1}^n x_i     (arithmetisches Mittel der xi)
\overline{y} = \frac{1}{n}\sum_{i=1}^n y_i     (arithmetisches Mittel der yi)
s_x^2 = \tfrac{1}{n-1}\sum_{i=1}^n (x_i-\overline{x})^2     (korrigierte Stichprobenvarianz der xi)
s_y^2 = \tfrac{1}{n-1}\sum_{i=1}^n (y_i-\overline{y})^2     (korrigierte Stichprobenvarianz der yi)
s_{xy} = \tfrac{1}{n-1}\sum_{i=1}^n (x_i-\overline{x})(y_i-\overline{y})     (korrigierte Kovarianz der (xi,yi))

Damit ergeben sich die Parameter zur Lösung des Minimierungsproblems:[3]

\beta_1 = \frac{s_y^2 - s_x^2 + \sqrt{(s_y^2 - s_x^2)^2 + 4s_{xy}^2}}{2s_{xy}}
\beta_0 = \overline{y} - \beta_1\overline{x}
x_i^* = x_i + \frac{\beta_1}{\beta_1^2 + 1}(y_i - \beta_0 - \beta_1x_i)

Einzelnachweise[Bearbeiten]

  1. R. J. Adcock: A problem in least squares. In: Annals of Mathematics (Hrsg.): The Analyst. 5, Nr. 2, 1878, S. 53–54. JSTOR 2635758. doi:10.2307/2635758.
  2. W. E. Deming: Statistical adjustment of data. Wiley, NY (Dover Publications edition, 1985), 1943, ISBN 0-486-64685-8.
  3. P. Glaister: Least squares revisited. The Mathematical Gazette. Vol. 85 (2001), S. 104–107.