Kovarianzmatrix

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Die Kovarianzmatrix oder (selten auch Varianz-Kovarianz-Matrix bzw. ) verallgemeinert in der Wahrscheinlichkeitstheorie den Einfluss der Varianz einer eindimensionalen Zufallsvariable auf eine mehrdimensionale, d. h. auf einen Zufallsvektor .

Definition[Bearbeiten | Quelltext bearbeiten]

Die Kovarianzmatrix als Matrix aller paarweisen Kovarianzen der Elemente des Zufallsvektors enthält Informationen über seine Streuung und über Korrelationen zwischen seinen Komponenten:

mit

  • der Kovarianz der reellen Zufallsvariablen und
  • und

Beziehung zum Erwartungswert des Zufallsvektors[Bearbeiten | Quelltext bearbeiten]

Ist der Erwartungswert des Zufallsvektors, so gilt

Hierbei sind Erwartungswerte von Vektoren und Matrizen komponentenweise zu verstehen.

Ein Zufallsvektor, der einer gegebenen Kovarianzmatrix gehorchen und den Erwartungswert haben soll, kann wie folgt simuliert werden:
zunächst ist die Kovarianzmatrix zu zerlegen (z. B. mit der Cholesky-Zerlegung):

anschließend lässt sich der Zufallsvektor berechnen zu

mit

  • einem (anderen) Zufallsvektor mit voneinander unabhängigen standardnormalverteilten Komponenten.

Kovarianzmatrix zweier Vektoren[Bearbeiten | Quelltext bearbeiten]

Die Kovarianzmatrix zweier Vektoren lautet

mit dem Erwartungswert des Zufallsvektors und dem Erwartungswert des Zufallsvektors .

Kovarianzmatrix als Präzisionskriterium[Bearbeiten | Quelltext bearbeiten]

Die Präzision eines Schätzers lässt sich mittels der Varianz-Kovarianz-Matrix messen, da diese die Informationen über die Streuung des Zufallsvektors zwischen seinen Komponenten enthält. Im Allgemeinen gilt, dass sich die Präzision eines Parameterschätzers anhand der "Größe" seiner Varianz-Kovarianz-Matrix messen lässt. Es gilt je "kleiner" die Varianz-Kovarianz-Matrix, desto größer die Präzision des Schätzers. Seien und zwei unverzerrte Zufallsvektoren. Wenn ein Zufallsvektor ist, dann ist eine positiv definite und symmetrische Matrix. Man kann sagen, dass "kleiner" ist als in dem Sinne, dass eine positiv semidefinite Matrix ist, wenn also gilt[1]

Eigenschaften[Bearbeiten | Quelltext bearbeiten]

  • Für gilt: . Somit enthält die Kovarianzmatrix auf der Hauptdiagonalen die Varianzen der einzelnen Komponenten des Zufallsvektors. Alle Elemente auf der Hauptdiagonalen sind daher nicht-negativ.
  • Eine reelle Kovarianzmatrix ist symmetrisch, da die Kovarianz zweier Zufallsvariablen symmetrisch ist.
  • Die Kovarianzmatrix ist positiv semidefinit: Aufgrund der Symmetrie ist jede Kovarianzmatrix mittels Hauptachsentransformation diagonalisierbar, wobei die Diagonalmatrix wieder eine Kovarianzmatrix ist. Da auf der Diagonale nur Varianzen stehen, ist die Diagonalmatrix folglich positiv semidefinit und somit auch die ursprüngliche Kovarianzmatrix.
  • Umgekehrt kann jede symmetrische positiv semidefinite -Matrix als Kovarianzmatrix eines -dimensionalen Zufallsvektors aufgefasst werden.
  • Aufgrund der Diagonalisierbarkeit, wobei die Eigenwerte (auf der Diagonale) wegen der positiven Semidefinitheit nicht-negativ sind, können Kovarianzmatrizen als Ellipsoide dargestellt werden.
  • Für alle Matrizen gilt .
  • Für alle Vektoren gilt .
  • Sind und unkorrelierte Zufallsvektoren, dann gilt .
  • Sind die Zufallsvariablen standardisiert, so enthält die Kovarianzmatrix gerade die Korrelationskoeffizienten.

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Literatur[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. G. Judge und R. Carter Hill: Introduction to the Theory and Practice of Econometrics. 1998, S. 78.