Zeile 4:
Zeile 4:
== Definition ==
== Definition ==
Sei <math>M</math> eine <math>m\times m</math> [[Zufallsmatrix]]. Das Wahrscheinlichkeitsmaß
Sei <math>M</math> eine <math>m\times m</math> [[Zufallsmatrix]]. Das Wahrscheinlichkeitsmaß<ref>{{Literatur|Autor=Alan J. Izenman|Titel= Modern multivariate statistical techniques: Regression, classification, and manifold learning |Auflage=1 |Verlag=Springer-Verlag|Ort= New York |ISBN=9780387781891|Seiten=63}}</ref>
:<math>W_m(n,\Sigma):=\frac{1}{\mathcal{W}_{n,m,\Sigma}}(\det M)^{(n-m-1)/2}e^{-\frac{1}{2}\operatorname{tr}(\Sigma^{-1} M)}\mathrm{d}M</math>
:<math>W_m(n,\Sigma):=\frac{1}{\mathcal{W}_{n,m,\Sigma}}(\det M)^{(n-m-1)/2}e^{-\frac{1}{2}\operatorname{tr}(\Sigma^{-1} M)}\mathrm{d}M</math>
wobei
wobei
Die Wishart-Verteilung ist eine Wahrscheinlichkeitsverteilung . Sie ist die matrixvariate Entsprechung der χ2 -Verteilung . Sie wurde nach dem schottischen Statistiker John Wishart benannt.
Die Wishart-Verteilung spielt eine zentrale Rolle in der Theorie der Zufallsmatrizen.
Definition
Sei
M
{\displaystyle M}
eine
m
×
m
{\displaystyle m\times m}
Zufallsmatrix . Das Wahrscheinlichkeitsmaß[1]
W
m
(
n
,
Σ
)
:=
1
W
n
,
m
,
Σ
(
det
M
)
(
n
−
m
−
1
)
/
2
e
−
1
2
tr
(
Σ
−
1
M
)
d
M
{\displaystyle W_{m}(n,\Sigma ):={\frac {1}{{\mathcal {W}}_{n,m,\Sigma }}}(\det M)^{(n-m-1)/2}e^{-{\frac {1}{2}}\operatorname {tr} (\Sigma ^{-1}M)}\mathrm {d} M}
wobei
W
n
,
m
,
Σ
:=
2
n
m
/
2
Γ
m
(
n
/
2
)
(
det
Σ
)
n
/
2
{\displaystyle {\mathcal {W}}_{n,m,\Sigma }:=2^{nm/2}\Gamma _{m}(n/2)(\det \Sigma )^{n/2}}
definiert die Wishart-Verteilung mit
n
≥
m
{\displaystyle n\geq m}
Freiheitsgraden auf dem Raum der symmetrischen positiv definiten Matrizen (
x
T
M
x
>
0
{\displaystyle x^{T}Mx>0}
).
Mit
Γ
m
(
n
/
2
)
{\displaystyle \Gamma _{m}(n/2)}
bezeichnet man die
m
{\displaystyle m}
-variate Gammafunktion :
Γ
m
(
n
2
)
=
π
m
(
m
−
1
)
/
4
∏
j
=
1
m
Γ
(
n
2
−
j
−
1
2
)
.
{\displaystyle \Gamma _{m}\left({\frac {n}{2}}\right)=\pi ^{m(m-1)/4}\prod _{j=1}^{m}\Gamma \left({\frac {n}{2}}-{\frac {j-1}{2}}\right).}
Eine Zufallsmatrix
M
∼
W
m
(
n
,
Σ
)
{\displaystyle M\sim W_{m}(n,\Sigma )}
nennt man Wishart-Matrix .
Eigenwertdichte
Sei
M
∼
W
m
(
n
,
Σ
)
{\displaystyle M\sim W_{m}(n,\Sigma )}
und
λ
1
≥
λ
2
≥
⋯
≥
λ
m
{\displaystyle \lambda _{1}\geq \lambda _{2}\geq \cdots \geq \lambda _{m}}
die geordneten Eigenwerte. Weiter sei
d
Q
{\displaystyle \mathrm {d} Q}
das Haarsches Maß über der orthogonalen Gruppe
O
m
{\displaystyle {\mathcal {O}}_{m}}
und
Λ
=
diag
(
λ
1
,
…
,
λ
m
)
{\displaystyle \Lambda =\operatorname {diag} (\lambda _{1},\dots ,\lambda _{m})}
, dann ist die Eigenwertdichte
P
m
,
n
(
λ
1
,
…
,
λ
m
)
=
C
m
,
n
1
(
det
(
Σ
)
n
/
2
∏
i
λ
i
n
−
m
−
1
∏
i
<
j
(
λ
i
−
λ
j
)
∫
O
m
e
−
1
2
tr
(
Σ
−
1
Q
Λ
Q
t
)
d
Q
{\displaystyle \mathbb {P} _{m,n}(\lambda _{1},\dots ,\lambda _{m})=C_{m,n}{\frac {1}{(\operatorname {det} (\Sigma )^{n/2}}}\prod \limits _{i}\lambda _{i}^{n-m-1}\prod \limits _{i<j}(\lambda _{i}-\lambda _{j})\int _{{\mathcal {O}}_{m}}e^{-{\frac {1}{2}}\operatorname {tr} (\Sigma ^{-1}Q\Lambda Q^{t})}\mathrm {d} Q}
Universalität
Für unendliche grosse standard Wishart-Matrizen (sowie auch für allgemeinere Formen) gilt für die Eigenwerte das Marchenko -Pastur Gesetz.
Marchenko-Pastur Gesetz
Sei
M
m
∼
W
m
(
n
,
Id
m
)
,
M
=
M
m
/
n
{\displaystyle M_{m}\sim W_{m}(n,\operatorname {Id} _{m}),\ M=M_{m}/n}
und
m
,
n
→
∞
{\displaystyle m,n\to \infty }
so dass
m
/
n
→
α
∈
(
0
,
∞
)
{\displaystyle m/n\to \alpha \in (0,\infty )}
, dann konvergiert das empirische Spektralmaß von
M
{\displaystyle M}
auf
[
λ
−
,
λ
+
]
:=
[
(
1
−
α
)
2
,
(
1
+
α
)
2
]
{\displaystyle [\lambda _{-},\lambda _{+}]:=[(1-{\sqrt {\alpha }})^{2},(1+{\sqrt {\alpha }})^{2}]}
schwach nach[2]
mp
α
(
d
x
,
ω
)
:=
(
1
−
1
α
)
+
δ
0
+
(
x
−
λ
−
)
(
λ
+
−
x
)
2
π
x
α
1
x
∈
[
λ
−
,
λ
+
]
d
x
fast sicher
{\displaystyle \operatorname {mp} _{\alpha }(\mathrm {d} x,\omega ):=\left(1-{\frac {1}{\alpha }}\right)^{+}\delta _{0}+{\frac {\sqrt {(x-\lambda _{-})(\lambda _{+}-x)}}{2\pi x\alpha }}1_{x\in [\lambda _{-},\lambda _{+}]}\mathrm {d} x\quad {\text{fast sicher}}}
Eigenschaften
Sei
M
∼
W
m
(
n
,
Σ
)
{\displaystyle M\sim W_{m}(n,\Sigma )}
und
C
{\displaystyle C}
eine
q
×
m
{\displaystyle q\times m}
Matrix mit Rang
q
{\displaystyle q}
, dann gilt
C
M
C
t
∼
W
m
(
n
,
C
Σ
C
t
)
{\displaystyle CMC^{t}\sim W_{m}(n,C\Sigma C^{t})}
.
Aus (1.) folgt somit
Σ
−
1
2
M
Σ
−
1
2
∼
W
m
(
n
,
I
d
m
)
{\displaystyle \Sigma ^{-{\frac {1}{2}}}M\Sigma ^{-{\frac {1}{2}}}\sim W_{m}(n,\operatorname {Id_{m}} )}
.
Seien
(
M
i
)
∼
W
m
(
n
i
,
Σ
)
{\displaystyle (M_{i})\sim W_{m}(n_{i},\Sigma )}
k
{\displaystyle k}
unabhängige Wishart-Matrizen. Dann ist
M
=
∑
i
=
1
k
M
i
∼
W
m
(
n
1
+
⋯
+
n
k
,
Σ
)
{\displaystyle M=\sum \limits _{i=1}^{k}M_{i}\sim W_{m}(n_{1}+\cdots +n_{k},\Sigma )}
. (Reproduktivität )
Sei
M
∼
W
m
(
n
,
Σ
)
{\displaystyle M\sim W_{m}(n,\Sigma )}
, dann
E
[
W
m
]
=
n
Σ
{\displaystyle \mathbb {E} [W_{m}]=n\Sigma }
Herleitung
Seien
X
1
,
…
,
X
m
∼
N
(
0
,
1
)
{\displaystyle X_{1},\dots ,X_{m}\sim {\mathcal {N}}(0,1)}
(standardnormalverteilte Zufallsvariablen).
Summiert man die Quadrate der
X
i
{\displaystyle X_{i}}
erhält man eine χ2 -verteilte Zufallsvariable mit
m
{\displaystyle m}
Freiheitsgraden
Y
=
∑
i
=
1
m
X
i
2
{\displaystyle Y=\sum _{i=1}^{m}X_{i}^{2}}
Diese Summe lässt sicher aber auch als das Produkt eines
m
{\displaystyle m}
-variaten Zufallsvektor mit seiner Transponierten auffassen
Y
=
Z
Z
′
{\displaystyle Y=ZZ'}
wobei
Z
=
(
X
1
,
…
,
X
m
)
∼
N
m
(
0
,
Σ
)
{\displaystyle Z=(X_{1},\dots ,X_{m})\sim {\mathcal {N}}_{m}(0,\Sigma )}
.
Hat man nun
n
{\displaystyle n}
Zufallsvektoren
Z
1
,
…
,
Z
n
∼
N
m
(
0
,
Σ
)
{\displaystyle Z_{1},\dots ,Z_{n}\sim {\mathcal {N}}_{m}(0,\Sigma )}
, fasst man diese in einer
m
×
n
{\displaystyle m\times n}
Zufallsmatrix zusammen
X
=
[
Z
1
′
,
…
,
Z
n
′
]
=
(
Z
1
(
1
)
Z
1
(
2
)
⋯
Z
1
(
n
)
Z
2
(
1
)
Z
2
(
2
)
⋯
Z
2
(
n
)
⋮
⋮
⋯
⋮
Z
m
(
1
)
Z
m
(
2
)
⋯
Z
m
(
n
)
)
{\displaystyle \mathbf {X} =[Z_{1}',\dots ,Z_{n}']={\begin{pmatrix}Z_{1}^{(1)}&Z_{1}^{(2)}&\cdots &Z_{1}^{(n)}\\Z_{2}^{(1)}&Z_{2}^{(2)}&\cdots &Z_{2}^{(n)}\\\vdots &\vdots &\cdots &\vdots \\Z_{m}^{(1)}&Z_{m}^{(2)}&\cdots &Z_{m}^{(n)}\\\end{pmatrix}}}
.
Multipliziert man
X
{\displaystyle \mathbf {X} }
mit ihrer Transponierten erhält man eine (symmetrische)
m
×
m
{\displaystyle m\times m}
Zufallsmatrix, die der Wishart-Verteilung mit
n
{\displaystyle n}
Freiheitsgraden folgt.
W
=
X
X
′
{\displaystyle {\textbf {W}}=\mathbf {X} \mathbf {X} '}
.
mit
W
∼
W
m
(
n
,
Σ
)
{\displaystyle {\textbf {W}}\sim W_{m}(n,\Sigma )}
.
Statistisches Beispiel
Seien
X
1
,
.
.
.
,
X
n
{\displaystyle X_{1},...,X_{n}}
i.i.d.
p
{\displaystyle p}
-dimensionale Zufallsvektoren mit Verteilung
N
p
(
μ
,
Σ
)
{\displaystyle {\mathcal {N}}_{p}(\mu ,\Sigma )}
. Definiere die Schätzfunktionen für den Erwartungswert und die Varianz
X
¯
=
1
n
∑
i
=
1
n
X
i
{\displaystyle {\overline {X}}={\frac {1}{n}}\sum \limits _{i=1}^{n}X_{i}}
Σ
^
=
1
n
−
1
∑
i
=
1
n
(
X
i
−
X
¯
)
(
X
i
−
X
¯
)
t
{\displaystyle {\widehat {\Sigma }}={\frac {1}{n-1}}\sum \limits _{i=1}^{n}(X_{i}-{\overline {X}})(X_{i}-{\overline {X}})^{t}}
Dann gilt
(
n
−
1
)
Σ
^
∼
W
p
(
n
−
1
,
Σ
)
{\displaystyle (n-1){\widehat {\Sigma }}\sim W_{p}(n-1,\Sigma )}
Erläuterung
Das heisst, die unnormalisierte Kovarianzmatrix der Zufallsstichprobe folgt der Wishart-Verteilung.
Weblinks
Literatur
Einzelnachweise
↑ Alan J. Izenman: Modern multivariate statistical techniques: Regression, classification, and manifold learning . 1. Auflage. Springer-Verlag, New York, ISBN 978-0-387-78189-1 , S. 63 .
↑ Pavel Yaskov: A short proof of the Marchenko-Pastur theorem. In: arXiv. Abgerufen am 30. Mai 2021 .
Diskrete univariate Verteilungen
Kontinuierliche univariate Verteilungen
Multivariate Verteilungen