Deming-Regression

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

In der Statistik wird mit der Deming-Regression eine Ausgleichsgerade für eine endliche Menge metrisch skalierter Datenpaare (xi, yi) nach der Methode der kleinsten Quadrate bestimmt. Im Unterschied zur linearen Regression werden Residuen (Messfehler) sowohl für die x- als auch für die y-Werte in das Modell einbezogen.

Die Deming-Regression ist ein Spezialfall der Regressionsanalyse und beruht auf einer Maximum-Likelihood-Schätzung der Regressionsparameter, bei der die Residuen beider Variablen als unabhängig und normalverteilt angenommen werden und der Quotient δ ihrer Varianzen als bekannt unterstellt wird.

Die Deming-Regression geht auf eine Arbeit von C.H. Kummell (1879) zurück;[1] 1937 wurde die Methode von T.C. Koopmans wieder aufgegriffen[2] und in allgemeinerem Rahmen 1943 von W. E. Deming für technische und ökonomische Anwendungen bekannt gemacht.[3]

Die orthogonale Regression ist ein wichtiger Spezialfall der Deming-Regression; sie behandelt den Fall δ = 1.

Rechenweg[Bearbeiten]

Die gemessenen Werte xi und yi werden als Summen der "wahren" Werte xi* bzw. yi* und der "Fehler" ηi bzw. εi aufgefasst, d.h. (xi, yi) = (xi* + ηi , yi* + εi). Die Datenpaare (xi*, yi*) liegen auf der zu berechnenden Geraden. ηi und εi seien unabhängig mit bekanntem Quotienten der Fehlervarianzen δ = σε2η2.

Es wird eine Gerade y = β0 + β1x gesucht, die die gewichtete Summe der quadrierten Residuen minimiert:

SSR = \sum_{i=1}^n\bigg(\frac{\eta_i^2}{\sigma_\eta^2} + \frac{\varepsilon_i^2}{\sigma_\varepsilon^2}\bigg) = \frac{1}{\sigma_\varepsilon^2} \sum_{i=1}^n\Big((y_i-\beta_0-\beta_1x^*_i)^2 + \delta(x_i-x^*_i)^2\Big) \ \to\ \min_{\beta_0,\beta_1,x_i^*} SSR

Für die weitere Rechnung werden die folgenden Hilfswerte benötigt:

\overline{x} = \frac{1}{n}\sum_{i=1}^n x_i     (arithmetisches Mittel der xi)
\overline{y} = \frac{1}{n}\sum_{i=1}^n y_i     (arithmetisches Mittel der yi)
s_x^2 = \tfrac{1}{n-1}\sum_{i=1}^n (x_i-\overline{x})^2     (korrigierte Stichprobenvarianz der xi)
s_y^2 = \tfrac{1}{n-1}\sum_{i=1}^n (y_i-\overline{y})^2     (korrigierte Stichprobenvarianz der yi)
s_{xy} = \tfrac{1}{n-1}\sum_{i=1}^n (x_i-\overline{x})(y_i-\overline{y})     (korrigierte Kovarianz der (xi, yi))

Damit ergeben sich die Parameter zur Lösung des Minimierungsproblems:[4]

\beta_1 = \frac{s_y^2 - \delta s_x^2 + \sqrt{(s_y^2 - \delta s_x^2)^2 + 4 \delta s_{xy}^2}}{2s_{xy}}
\beta_0 = \overline{y} - \beta_1\overline{x}
x_i^* = x_i + \frac{\beta_1}{\beta_1^2 + \delta}(y_i - \beta_0 - \beta_1x_i)

Einzelnachweise[Bearbeiten]

  1. C. H. Kummell: Reduction of observation equations which contain more than one observed quantity. In: Annals of Mathematics (Hrsg.): The Analyst. 6, Nr. 4, 1879, S. 97–105. doi:10.2307/2635646.
  2. T. C. Koopmans: Linear regression analysis of economic time series. DeErven F. Bohn, Haarlem, Netherlands, 1937.
  3. W. E. Deming: Statistical adjustment of data. Wiley, NY (Dover Publications edition, 1985), 1943, ISBN 0-486-64685-8.
  4. P. Glaister: Least squares revisited. The Mathematical Gazette. Vol. 85 (2001), S. 104–107.