Kovarianzmatrix

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Eine um zentrierte zweidimensionale Gauß-Verteilung, mit der Kovarianzmatrix

In der Stochastik ist die Kovarianzmatrix, auch Varianz-Kovarianz-Matrix, oder selten Streuungsmatrix bzw. Dispersionsmatrix (lateinisch dispersio „Zerstreuung“, von dispergere „verteilen, ausbreiten, zerstreuen“) genannt, eine positiv semidefinite Matrix. Sind alle Komponenten des Zufallsvektors linear unabhängig, so ist die Kovarianzmatrix positiv definit. Bei der Kovarianzmatrix stellen die Elemente auf der Hauptdiagonalen die jeweiligen Varianzen dar und alle übrigen Elemente Kovarianzen. Sie ist die Verallgemeinerung der Varianz einer eindimensionalen Zufallsvariable auf eine mehrdimensionale, d. h. auf einen Zufallsvektor.

Definition[Bearbeiten | Quelltext bearbeiten]

Sei ein Zufallsvektor

,

wobei den Erwartungswert von , die Varianz von und die Kovarianz der reellen Zufallsvariablen und darstellt. Der Erwartungswertvektor von ist dann gegeben durch (siehe Erwartungswert von Matrizen und Vektoren)

,

d. h. der Erwartungswert des Zufallsvektors ist der Vektor der Erwartungswerte. Eine Kovarianzmatrix für den Zufallsvektor lässt sich wie folgt definieren:[1]

Die Kovarianzmatrix wird mit , oder notiert und die Kovarianzmatrix der asymptotischen Verteilung einer Zufallsvariablen mit oder . Die Kovarianzmatrix und der Erwartungswertvektor sind die wichtigsten Kenngrößen einer Wahrscheinlichkeitsverteilung. Sie werden bei einer Zufallsvariablen als Zusatzinformationen wie folgt angegeben: . Die Kovarianzmatrix als Matrix aller paarweisen Kovarianzen der Elemente des Zufallsvektors enthält Informationen über seine Streuung und über Korrelationen zwischen seinen Komponenten. Wenn keine der Zufallsvariablen degeneriert ist (d. h. wenn keine von ihnen eine Varianz von Null aufweist) und kein exakter linearer Zusammenhang zwischen den vorliegt, dann ist die Kovarianzmatrix positiv definit.[2]

Eigenschaften[Bearbeiten | Quelltext bearbeiten]

Grundlegende Eigenschaften[Bearbeiten | Quelltext bearbeiten]

  • Für gilt: . Somit enthält die Kovarianzmatrix auf der Hauptdiagonalen die Varianzen der einzelnen Komponenten des Zufallsvektors. Alle Elemente auf der Hauptdiagonalen sind daher nichtnegativ.
  • Eine reelle Kovarianzmatrix ist symmetrisch, da die Kovarianz zweier Zufallsvariablen symmetrisch ist.
  • Die Kovarianzmatrix ist positiv semidefinit: Aufgrund der Symmetrie ist jede Kovarianzmatrix mittels Hauptachsentransformation diagonalisierbar, wobei die Diagonalmatrix wieder eine Kovarianzmatrix ist. Da auf der Diagonale nur Varianzen stehen, ist die Diagonalmatrix folglich positiv semidefinit und somit auch die ursprüngliche Kovarianzmatrix.
  • Umgekehrt kann jede symmetrische positiv semidefinite -Matrix als Kovarianzmatrix eines -dimensionalen Zufallsvektors aufgefasst werden.
  • Aufgrund der Diagonalisierbarkeit, wobei die Eigenwerte (auf der Diagonale) wegen der positiven Semidefinitheit nicht-negativ sind, können Kovarianzmatrizen als Ellipsoide dargestellt werden.
  • Für alle Matrizen und Vektoren gilt .
  • Für alle Vektoren gilt .
  • Sind und unkorrelierte Zufallsvektoren, dann gilt .
  • Sind die Zufallsvariablen standardisiert, so enthält die Kovarianzmatrix gerade die Korrelationskoeffizienten und man erhält die Korrelationsmatrix
  • Die Inverse der Kovarianzmatrix heißt Präzisionsmatrix
  • Für die Spur der Kovarianzmatrix gilt

Beziehung zum Erwartungswert des Zufallsvektors[Bearbeiten | Quelltext bearbeiten]

Ist der Erwartungswertvektor, so lässt sich mit dem Verschiebungssatz von Steiner angewandt auf mehrdimensionale Zufallsvariablen zeigen, dass

.

Hierbei sind Erwartungswerte von Vektoren und Matrizen komponentenweise zu verstehen.

Ein Zufallsvektor, der einer gegebenen Kovarianzmatrix gehorchen und den Erwartungswert haben soll, kann wie folgt simuliert werden:
zunächst ist die Kovarianzmatrix zu zerlegen (z. B. mit der Cholesky-Zerlegung):

.

Anschließend lässt sich der Zufallsvektor berechnen zu

mit einem (anderen) Zufallsvektor mit voneinander unabhängigen standardnormalverteilten Komponenten.

Kovarianzmatrix zweier Vektoren[Bearbeiten | Quelltext bearbeiten]

Die Kovarianzmatrix zweier Vektoren lautet

mit dem Erwartungswert des Zufallsvektors und dem Erwartungswert des Zufallsvektors .

Kovarianzmatrix als Effizienzkriterium[Bearbeiten | Quelltext bearbeiten]

Die Effizienz bzw. Präzision eines Punktschätzers lässt sich mittels der Varianz-Kovarianz-Matrix messen, da diese die Informationen über die Streuung des Zufallsvektors zwischen seinen Komponenten enthält. Im Allgemeinen gilt, dass sich die Effizienz eines Parameterschätzers anhand der „Größe“ seiner Varianz-Kovarianz-Matrix messen lässt. Es gilt je „kleiner“ die Varianz-Kovarianz-Matrix, desto größer die Effizienz des Schätzers. Seien und zwei unverzerrte Zufallsvektoren. Wenn ein Zufallsvektor ist, dann ist eine positiv definite und symmetrische Matrix. Man kann sagen, dass „kleiner“ ist als in dem Sinne, dass eine positiv semidefinite Matrix ist.[3]

Spezielle Kovarianzmatrizen[Bearbeiten | Quelltext bearbeiten]

Kovarianzmatrix des gewöhnlichen Kleinste-Quadrate-Schätzers[Bearbeiten | Quelltext bearbeiten]

Für die Kovarianzmatrix des gewöhnlichen Kleinste-Quadrate-Schätzers ergibt sich:[4]

bzw. in kompakter Schreibweise:

Diese Kovarianzmatrix ist unbekannt, da die Varianz der Störgrößen unbekannt ist. Einen Schätzer für die Kovarianzmatrix erhält man, indem man die unbekannte Störgrößenvarianz durch den erwartungstreuen Schätzer der Störgrößenvarianz ersetzt (siehe hierzu: Schätzung der Regressionskoeffizienten mithilfe der Kleinste-Quadrate-Schätzung).

Kovarianzmatrix bei scheinbar unverbundenen Regressionsgleichungen[Bearbeiten | Quelltext bearbeiten]

Bei scheinbar unverbundenen Regressionsgleichungen (englisch: seemingly unrelated regression equations, kurz SURE) des Modells

,

wobei der Fehlerterm idiosynkratisch ist, ergibt sich die Kovarianzmatrix als

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Literatur[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee. Introduction to the Theory and Practice of Econometrics. 2. Auflage. John Wiley & Sons, New York/ Chichester/ Brisbane/ Toronto/ Singapore 1988, ISBN 0-471-62414-4, S. 43.
  2. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee. Introduction to the Theory and Practice of Econometrics. 2. Auflage. John Wiley & Sons, New York/ Chichester/ Brisbane/ Toronto/ Singapore 1988, ISBN 0-471-62414-4, S. 43.
  3. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee. Introduction to the Theory and Practice of Econometrics. 2. Auflage. John Wiley & Sons, New York/ Chichester/ Brisbane/ Toronto/ Singapore 1988, ISBN 0-471-62414-4, S. 78.
  4. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee. Introduction to the Theory and Practice of Econometrics. 2. Auflage. John Wiley & Sons, New York/ Chichester/ Brisbane/ Toronto/ Singapore 1988, ISBN 0-471-62414-4, S. 201.