„Wishart-Verteilung“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
[gesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
K Ref
Zeile 4: Zeile 4:


== Definition ==
== Definition ==
Sei <math>M</math> eine <math>m\times m</math> [[Zufallsmatrix]]. Das Wahrscheinlichkeitsmaß
Sei <math>M</math> eine <math>m\times m</math> [[Zufallsmatrix]]. Das Wahrscheinlichkeitsmaß<ref>{{Literatur|Autor=Alan J. Izenman|Titel= Modern multivariate statistical techniques: Regression, classification, and manifold learning |Auflage=1 |Verlag=Springer-Verlag|Ort= New York |ISBN=9780387781891|Seiten=63}}</ref>
:<math>W_m(n,\Sigma):=\frac{1}{\mathcal{W}_{n,m,\Sigma}}(\det M)^{(n-m-1)/2}e^{-\frac{1}{2}\operatorname{tr}(\Sigma^{-1} M)}\mathrm{d}M</math>
:<math>W_m(n,\Sigma):=\frac{1}{\mathcal{W}_{n,m,\Sigma}}(\det M)^{(n-m-1)/2}e^{-\frac{1}{2}\operatorname{tr}(\Sigma^{-1} M)}\mathrm{d}M</math>
wobei
wobei

Version vom 30. Mai 2021, 14:56 Uhr

Die Wishart-Verteilung ist eine Wahrscheinlichkeitsverteilung. Sie ist die matrixvariate Entsprechung der χ2-Verteilung. Sie wurde nach dem schottischen Statistiker John Wishart benannt.

Die Wishart-Verteilung spielt eine zentrale Rolle in der Theorie der Zufallsmatrizen.

Definition

Sei eine Zufallsmatrix. Das Wahrscheinlichkeitsmaß[1]

wobei

definiert die Wishart-Verteilung mit Freiheitsgraden auf dem Raum der symmetrischen positiv definiten Matrizen ().

Mit bezeichnet man die -variate Gammafunktion:

Eine Zufallsmatrix nennt man Wishart-Matrix.

Eigenwertdichte

Sei und die geordneten Eigenwerte. Weiter sei das Haarsches Maß über der orthogonalen Gruppe und , dann ist die Eigenwertdichte

Universalität

Für unendliche grosse standard Wishart-Matrizen (sowie auch für allgemeinere Formen) gilt für die Eigenwerte das Marchenko-Pastur Gesetz.

Marchenko-Pastur Gesetz

Sei und so dass , dann konvergiert das empirische Spektralmaß von auf schwach nach[2]

Eigenschaften

  1. Sei und eine Matrix mit Rang , dann gilt .
  2. Aus (1.) folgt somit .
  3. Seien unabhängige Wishart-Matrizen. Dann ist . (Reproduktivität)
  4. Sei , dann

Herleitung

Seien (standardnormalverteilte Zufallsvariablen). Summiert man die Quadrate der erhält man eine χ2-verteilte Zufallsvariable mit Freiheitsgraden

Diese Summe lässt sicher aber auch als das Produkt eines -variaten Zufallsvektor mit seiner Transponierten auffassen

wobei .

Hat man nun Zufallsvektoren , fasst man diese in einer Zufallsmatrix zusammen

.

Multipliziert man mit ihrer Transponierten erhält man eine (symmetrische) Zufallsmatrix, die der Wishart-Verteilung mit Freiheitsgraden folgt.

.

mit .

Statistisches Beispiel

Seien i.i.d. -dimensionale Zufallsvektoren mit Verteilung . Definiere die Schätzfunktionen für den Erwartungswert und die Varianz

Dann gilt

Erläuterung

Das heisst, die unnormalisierte Kovarianzmatrix der Zufallsstichprobe folgt der Wishart-Verteilung.

Weblinks

Literatur

Einzelnachweise

  1. Alan J. Izenman: Modern multivariate statistical techniques: Regression, classification, and manifold learning. 1. Auflage. Springer-Verlag, New York, ISBN 978-0-387-78189-1, S. 63.
  2. Pavel Yaskov: A short proof of the Marchenko-Pastur theorem. In: arXiv. Abgerufen am 30. Mai 2021.