Benutzer:JonskiC/Kleinste-Quadrate-Schätzer

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Die gewöhnliche Kleinste-Quadrate-Schätzung (englisch ordinary least squares, kurz: OLS), gewöhnliche MKQ-Schätzung (MKQ für Methode der kleinsten Quadrate) auch verkürzt Kleinste-Quadrate-Schätzung oder lediglich KQ-Schätzung ist in der Regressionsanalyse der Standardlösungsansatz zur Schätzung von unbekannten Parameter in linearen Einzelgleichungsmodellen (Modell bei der eine Antwortvariable durch eine oder mehrere unabhängige Variablen erklärt wird). Diese Schätzmethode baut auf der numerischen Methode der kleinsten Quadrate auf einer Methode um eine Näherungslösung für überbestimmte lineare Gleichungssysteme (d. h. ein System von Gleichungen in dem mehr Gleichungen als unbekannte sind) zu finden. Bei der Kleinste-Quadrate-Schätzung werden die Schätzer (auch Kleinste-Quadrate-Schätzer gennant) gewonnen, indem die Residuenquadratsumme minimiert wird. Der Zusatz "gewöhnliche" wird zur Abgrenzung von daraus abgeleiteten Erweiterungen wie z. B. der verallgemeinerten Kleinste-Quadrate-Schätzung, oder der zweistufigen leinste-Quadrate-Schätzung abzugrenzen. Die mit der gewöhnlichen Kleinste-Quadrate-Schätzung gewonnenen Parameterschätzer heißen (gewöhnliche) Kleinste-Quadrate-Schätzer. Im Gegensatz zur Maximum-Likelihood-Methode (Methode der größten Plausibilität) ist die gewöhnliche Kleinste-Quadrate-Schätzung unabhängig von der Wahrscheinlichkeitsverteilung der Störgrößen.

Einführung in die Problemstellung[Bearbeiten | Quelltext bearbeiten]

Geschichte[Bearbeiten | Quelltext bearbeiten]

Minimierungsansatz[Bearbeiten | Quelltext bearbeiten]

Sei die zu minimierende Zielfunktion die folgende Quadratsumme

.

In einem linearen Modell, heißt jedes heißt jede Wahl von für die gilt[1]

Kleinste-Quadrate-Schätzer (oder kurz: KQ-Schätzer) des unbekannten Parametervektors .

Parameterschätzung im einfachen linearen Regressionsmodell[Bearbeiten | Quelltext bearbeiten]

Im Fall der linearen Einfachregression, bei der Ziel ist den Achsenabschnitt und die Steigung der Regressionsgeraden sowie die Schätzung der Varianz der Störgrößen zu schätzen ergeben sich die Kleinste-Quadrate-Schätzer durch das folgende Minimierungsproblem

.

Die Lösung dieses Minimierungsproblem ist gegeben durch die beiden Schätzfunktionen

und ,

Diese beiden Schätzfunktionen der Regressionsparameter hängen linear von ab, da

mit der Gewichtsfunktion
.
Beweis

Dass die Kleinste-Quadrate-Schätzer sich im Falle der linearen Einfachregression durch () ergeben kann wie folgt gezeigt werden:

Es sind die Parameterschätzer und gesucht, die Lösung des folgenden Mnimierungsproblems sind

.

Um das Minimum zu finden gilt es die Quadratsumme partiell nach und abzuleiten. Die Bedingungen erster Ordnung (notwendige Bedingungen) lauten:

und .

Zunächst berechnet man die partielle Ableitung nach

.

Bevor man die partielle Ableitung in Bezug auf bildet, setzt man zunächst das Ergebnis für ein:

.

Nun gilt es die partielle Ableitung nach zu bilden:

.

Schließlich muss ersetzt werden, um zu bestimmen. Die beiden Lösungen, d. h. die KQ-Schätzer lauten somit:

und .

Die mit dieser Methode gewonnene Gerade wird Kleinste-Quadrate-Gerade (KQ-gerade) genannt.

Parameterschätzung im multiplen linearen Regressionsmodell[Bearbeiten | Quelltext bearbeiten]

Auch im multiplen linearen Regressionsmodell wird der Vektor der Störgrößen mithilfe der Kleinste-Quadrate-Schätzung (KQ-Schätzung) minimiert, das heißt, es soll so gewählt werden, dass die euklidische Norm minimal wird. Im Folgenden wird der Ansatz benutzt, dass die Residuenquadratsumme minimiert wird. Dazu wird vorausgesetzt, dass den Rang hat. Dann ist invertierbar und man erhält als Minimierungsproblem:

Die Bedingung erster Ordnung (Nullsetzen des Gradienten) lautet:

Die Kleinste-Quadrate-Schätzung kann als eine Projektion auf die Ebene, die durch die Regressoren aufgespannt wird, interpretiert werden.

Die partiellen Ableitungen erster Ordnung lauten:

Dies zeigt, dass sich die Bedingung erster Ordnung für den Vektor der geschätzten Regressionsparameter kompakt darstellen lässt als:

bzw.

.

Dieses lineare Gleichungssystem wird in der Regel (Gaußsches) Normalgleichungssystem genannt.

Da die Matrix den Rang hat, ist die quadratische symmetrische Matrix nichtsingulär und die Inverse für existiert. Daher erhält man nach linksseitiger Multiplikation mit der Inversen der Produktsummenmatrix als Lösung des Minimierungsproblems den folgenden Vektor der geschätzten Regressionskoeffizienten:[2]

Wenn der Rang von kleiner als ist, dann ist nicht invertierbar, also das Normalgleichungssystem nicht eindeutig lösbar, mithin nicht identifizierbar, siehe hierzu aber den Begriff der Schätzbarkeit. Da die Residuenquadratsumme minimiert, wird auch Kleinste-Quadrate-Schätzer (kurz: KQ-Schätzer) genannt.[3] Alternativ kann der Kleinste-Quadrate-Schätzer durch Einsetzen des wahren Modells auch dargestellt werden als[4]

Für die Kovarianzmatrix des Kleinste-Quadrate-Schätzers ergibt sich (dargestellt in kompakter Form):[5]

Im Fall der linearen Einfachregression () reduziert sich die obigen Formel auf die bekannten Ausdrücke für die Varianzen der KQ-Schätzer und (siehe Statistische Eigenschaften der Kleinste-Quadrate-Schätzer).[6]

Beweis

Man erhält mit Hilfe des Kleinste-Quadrate-Schätzers das Gleichungssystem

,

wobei der Vektor der Residuen und die Schätzung für ist. Das Interesse der Analyse liegt oft in der Schätzung oder in der Vorhersage der abhängigen Variablen für ein gegebenes Tupel von . Der Vorhersagevektor berechnet sich als

.

Güteeigenschaften des Kleinste-Quadrate-Schätzers[Bearbeiten | Quelltext bearbeiten]

Erwartungstreue[Bearbeiten | Quelltext bearbeiten]

Im multiplen Fall kann man genauso wie im einfachen Fall zeigen, dass der Kleinste-Quadrate-Schätzvektor erwartungstreu für ist. Dies gilt allerdings nur, wenn die Annahme der Exogenität der Regressoren gegeben ist. Dies ist der Fall, wenn die möglicherweise zufälligen Regressoren und die Störgrößen unkorreliert sind, d. h. wenn gilt. Wenn man also hier voraussetzt, dass die exogenen Variablen keine Zufallsvariablen sind, sondern wie in einem Experiment kontrolliert werden können, gilt bzw. und damit ist erwartungstreu für .

Beweis

Falls die Exogenitätsannahme nicht zutrifft, , ist der Kleinste-Quadrate-Schätzer nicht erwartungstreu für . Es liegt also eine Verzerrung (englisch bias) vor, d. h., „im Mittel“ weicht der Parameterschätzer vom wahren Parameter ab:

.

Der Erwartungswert des Kleinste-Quadrate-Parametervektor für ist also nicht gleich dem wahren Parameter , siehe dazu auch unter Regression mit stochastischen Regressoren.

Effizienz[Bearbeiten | Quelltext bearbeiten]

Der Kleinste-Quadrate-Schätzer ist linear:

.

Nach dem Satz von Gauß-Markow ist der Schätzer , bester linearer erwartungstreuer Schätzer (BLES bzw. englisch Best Linear Unbiased Estimator, kurz: BLUE), das heißt, er ist derjenige lineare erwartungstreue Schätzer, der unter allen linearen erwartungstreuen Schätzern die kleinste Varianz bzw. Kovarianzmatrix besitzt. Für diese Eigenschaften der Schätzfunktion braucht keine Verteilungsinformation der Störgröße vorzuliegen. Wenn die Störgrößen normalverteilt sind, ist Maximum-Likelihood-Schätzer und nach dem Satz von Lehmann-Scheffé beste erwartungstreue Schätzung (BES bzw. englisch Best Unbiased Estimator, kurz: BUE).

Konsistenz[Bearbeiten | Quelltext bearbeiten]

Der KQ-Schätzer ist unter den bisherigen Annahmen erwartungstreu für (), wobei die Stichprobengröße keinen Einfluss auf die Erwartungstreue hat (schwaches Gesetz der großen Zahlen). Ein Schätzer ist genau dann konsistent für den wahren Wert, wenn er in Wahrscheinlichkeit gegen den wahren Wert konvergiert (englisch probability limit, kurz: plim). Die Eigenschaft der Konsistenz bezieht also das Verhalten des Schätzers mit ein, wenn die Anzahl der Beobachtungen größer wird.

Für die Folge gilt, dass sie in Wahrscheinlichkeit gegen den wahren Parameterwert konvergiert

oder vereinfacht ausgedrückt bzw.

Die Grundlegende Annahme, um die Konsistenz des KQ-Schätzers sicherzustellen lautet

,

d. h. man geht davon aus, dass das durchschnittliche Quadrat der beobachteten Werte der erklärenden Variablen auch bei einem ins Unendliche gehendem Stichprobenumfang endlich bleibt (siehe Produktsummenmatrix#Asymptotische Resultate). Außerdem nimmt man an, dass

.

Die Konsistenz für kann wie folgt gezeigt werden:[7]

Beweis

Hierbei wurde das Slutsky-Theorem und die Eigenschaft verwendet, dass wenn deterministisch bzw. nichtstochastisch ist gilt.

Folglich ist der Kleinste-Quadrate-Schätzer konsistent für . Die Eigenschaft besagt, dass mit steigender Stichprobengröße die Wahrscheinlichkeit, dass der Schätzer vom wahren Parameter abweicht, sinkt. Weiterhin lässt sich durch das Chintschin-Theorem zeigen, dass für die durch die KQ-Schätzung gewonnene Störgrößenvarianz gilt, dass sie konsistent für ist, d. h. .

Beweis

Dazu schreibt man zunächst die geschätzte Störgrößenvarianz wie folgt um

Damit ergibt sich als Wahrscheinlichkeitslimes

Somit ist ein konsistenter Schätzer für .

Anmerkungen[Bearbeiten | Quelltext bearbeiten]

  1. bezeichnet analog zu (Argument des Maximums) das Argument des Minimums
  2. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee: Introduction to the Theory and Practice of Econometrics. 2nd Ed. John Wiley & Sons, New York/Chichester/Brisbane/Toronto/Singapur 1988, ISBN 0-471-62414-4 S. 192.
  3. Alvin C. Rencher, G. Bruce Schaalje: Linear models in statistics., John Wiley & Sons, 2008, S. 143
  4. Peter Hackl: Einführung in die Ökonometrie. 2. aktualisierte Auflage, Pearson, 2008., ISBN 978-3-86894-156-2, S. 48.
  5. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee: Introduction to the Theory and Practice of Econometrics. 2nd Ed. John Wiley & Sons, New York/Chichester/Brisbane/Toronto/Singapur 1988, ISBN 0-471-62414-4 S. 201.
  6. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee: Introduction to the Theory and Practice of Econometrics. 2nd Ed. John Wiley & Sons, New York/Chichester/Brisbane/Toronto/Singapur 1988, ISBN 0-471-62414-4 S. 168.
  7. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee: Introduction to the Theory and Practice of Econometrics. 2nd Ed. John Wiley & Sons, New York/Chichester/Brisbane/Toronto/Singapur 1988, ISBN 0-471-62414-4 S. 266.