Symmetrische Matrix

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Symmetriemuster einer symmetrischen (5×5)-Matrix

Eine symmetrische Matrix ist in der Mathematik eine quadratische Matrix, die mit ihrer transponierten Matrix übereinstimmt. Die Einträge einer symmetrischen Matrix sind demnach spiegelsymmetrisch bezüglich der Hauptdiagonale.

Die Summe zweier symmetrischer Matrizen und jedes skalare Vielfache einer symmetrischen Matrix ist wieder symmetrisch. Die Menge der symmetrischen Matrizen fester Größe bildet daher einen Untervektorraum des zugehörigen Matrizenraums. Jede quadratische Matrix lässt sich dabei eindeutig als Summe einer symmetrischen und einer schiefsymmetrischen Matrix schreiben. Das Produkt zweier symmetrischer Matrizen ist wiederum symmetrisch, sofern die beiden Matrizen kommutieren.

Symmetrische Matrizen mit reellen Einträgen weisen eine Reihe weiterer besonderer Eigenschaften auf. So ist eine reelle symmetrische Matrix stets selbstadjungiert, sie besitzt nur reelle Eigenwerte und sie ist stets orthogonal diagonalisierbar. Für komplexe symmetrische Matrizen gelten diese Eigenschaften im Allgemeinen nicht; das entsprechende Gegenstück sind dort hermitesche Matrizen. Eine wichtige Klasse reeller symmetrischer Matrizen sind positiv definite Matrizen, bei denen alle Eigenwerte positiv sind.

In der linearen Algebra werden symmetrische Matrizen zur Beschreibung symmetrischer Bilinearformen verwendet. Die Darstellungsmatrix einer selbstadjungierten Abbildung bezüglich einer Orthonormalbasis ist ebenfalls stets symmetrisch. Lineare Gleichungssysteme mit symmetrischer Koeffizientenmatrix lassen sich effizient und numerisch stabil lösen. Weiterhin werden symmetrische Matrizen bei Orthogonalprojektionen und bei der Polarzerlegung von Matrizen verwendet.

Symmetrische Matrizen besitzen Anwendungen unter anderem in der Geometrie, der Analysis, der Graphentheorie und der Stochastik.

Definition[Bearbeiten]

Eine quadratische Matrix A \in K^{n \times n} über einem Körper K heißt symmetrisch, wenn sie mit ihrer Transponierten A^T übereinstimmt, also

A = A^T

gilt. Die Einträge a_{ij} einer symmetrischen Matrix sind demnach spiegelsymmetrisch bezüglich der Hauptdiagonale, das heißt es gilt

a_{ij} = a_{ji}

für i, j = 1, \ldots, n.

Beispiele[Bearbeiten]

Beispiele für symmetrische Matrizen mit reellen Einträgen sind


\begin{pmatrix} 
2
\end{pmatrix}
,\quad
\begin{pmatrix} 
1 & 5 \\
5 & 7
\end{pmatrix}
,\quad
\begin{pmatrix} 
1 & 1 \\
1 & 0
\end{pmatrix}
,\quad
\begin{pmatrix} 
1 & 3 & 0 \\
3 & 2 & 6 \\
0 & 6 & 5 
\end{pmatrix}
.

Allgemein haben symmetrische Matrizen der Größe 2 \times 2, 3 \times 3 und 4 \times 4 die Struktur


\begin{pmatrix} 
a & b \\
b & c 
\end{pmatrix}
,\quad
\begin{pmatrix} 
a & b & c \\
b & d & e \\
c & e & f 
\end{pmatrix}
,\quad
\begin{pmatrix} 
a & b & c & d \\
b & e & f & g \\
c & f & h & i \\
d & g & i & j
\end{pmatrix}
.

Klassen symmetrischer Matrizen beliebiger Größe sind unter anderem

Eigenschaften[Bearbeiten]

Einträge[Bearbeiten]

Bei einer symmetrischen Matrix müssen nur die Einträge auf und unterhalb der Diagonalen gespeichert werden

Aufgrund der Symmetrie wird eine symmetrische Matrix A \in K^{n \times n} bereits durch ihre n Diagonaleinträge und die \tfrac{n(n-1)}{2} Einträge unterhalb (oder oberhalb) der Diagonalen eindeutig charakterisiert. Eine symmetrische Matrix weist demnach höchstens

n + \frac{n(n-1)}{2} = \frac{n(n+1)}{2}

verschiedene Einträge auf. Im Vergleich dazu kann eine nichtsymmetrische (n \times n)-Matrix bis zu n^2 unterschiedliche Einträge besitzen, also bei großen Matrizen fast doppelt so viele. Zur Speicherung symmetrischer Matrizen im Computer gibt es daher spezielle Speicherformate, die diese Symmetrie ausnutzen.[1]

Summe[Bearbeiten]

Die Summe A + B zweier symmetrischer Matrizen A,B \in K^{n \times n} ist stets wieder symmetrisch, denn

(A + B)^T = A^T + B^T = A + B.

Ebenso ist auch das Produkt c A einer symmetrischen Matrix mit einem Skalar c \in K wieder symmetrisch. Nachdem auch die Nullmatrix symmetrisch ist, bildet die Menge der symmetrischen n\times n-Matrizen einen Untervektorraum

\operatorname{Symm}_n = \{ A \in K^{n \times n} \mid A^T = A \}

des Matrizenraums K^{n \times n}. Dieser Untervektorraum besitzt die Dimension \tfrac{n^2+n}{2}, wobei die Standardmatrizen E_{ii}, 1 \leq i \leq n, und E_{ij}+E_{ji}, 1 \leq i < j \leq n darin eine Basis bilden.

Zerlegung[Bearbeiten]

Falls die Charakteristik des Körpers K ungleich 2 ist, lässt sich jede beliebige quadratische Matrix M \in K^{n \times n} eindeutig als Summe M = A + B einer symmetrischen Matrix A und einer schiefsymmetrischen Matrix B schreiben, indem

A = \frac{1}{2}(M + M^T)   und   B = \frac{1}{2}(M - M^T)

gewählt werden. Die schiefsymmetrischen Matrizen bilden dann ebenfalls einen Untervektorraum \operatorname{Skew}_n des Matrizenraums mit Dimension \tfrac{n^2-n}{2}. Der gesamte n^2-dimensionale Raum K^{n \times n} lässt sich folglich als direkte Summe

K^{n \times n} = \operatorname{Symm}_n \oplus \operatorname{Skew}_n

der Räume der symmetrischen und der schiefsymmetrischen Matrizen schreiben.

Produkt[Bearbeiten]

Das Produkt A B zweier symmetrischer Matrizen A,B \in K^{n\times n} ist im Allgemeinen nicht wieder symmetrisch. Das Produkt symmetrischer Matrizen ist genau dann symmetrisch, wenn A und B kommutieren, also wenn A B = B A gilt, denn dann ergibt sich

(A B)^T = B^T A^T = B A = A B.

Insbesondere sind damit für eine symmetrische Matrix A auch alle ihre Potenzen A^k mit k \in \N und daher auch ihr Matrixexponential e^A wieder symmetrisch. Für eine beliebige Matrix M \in K^{m \times n} sind sowohl die m \times m-Matrix M M^T als auch die n \times n-Matrix M^T M stets symmetrisch.

Kongruenz[Bearbeiten]

Jede Matrix B \in K^{n \times n}, die kongruent zu einer symmetrischen Matrix A \in K^{n\times n} ist, ist ebenfalls symmetrisch, denn es gilt

B^T = (S^T A S)^T = S^T A^T S = S^T A S = B

für eine beliebige quadratische Matrix S \in K^{n \times n}. Matrizen, die ähnlich zu einer symmetrischen Matrix sind, müssen jedoch nicht notwendigerweise ebenfalls symmetrisch sein.

Inverse[Bearbeiten]

Ist eine symmetrische Matrix A \in K^{n \times n} invertierbar, dann ist auch ihre Inverse A^{-1} wieder symmetrisch, denn es gilt

(A^{-1})^T = (A^T)^{-1} = A^{-1}.

Für eine reguläre symmetrische Matrix A sind demnach auch alle Potenzen A^{-k} mit k \in \N wieder symmetrisch.

Reelle symmetrische Matrizen[Bearbeiten]

Symmetrische Matrizen mit reellen Einträgen besitzen eine Reihe weiterer besonderer Eigenschaften.

Normalität[Bearbeiten]

Eine reelle symmetrische Matrix A \in \R^{n \times n} ist stets normal, denn es gilt

A^T A = A A = A A^T.

Jede reelle symmetrische Matrix kommutiert also mit ihrer Transponierten. Es gibt allerdings auch normale Matrizen, die nicht symmetrisch sind, beispielsweise schiefsymmetrische Matrizen.

Selbstadjungiertheit[Bearbeiten]

Eine reelle symmetrische Matrix A \in \R^{n \times n} ist stets selbstadjungiert, denn es gilt mit dem reellen Standardskalarprodukt \langle \cdot, \cdot \rangle

\langle A x, y \rangle = (A x)^T y = x^T A^T y = x^T A y = \langle x, A y \rangle

für alle Vektoren x,y \in \R^n. Es gilt auch die Umkehrung und jede reelle selbstadjungierte Matrix ist symmetrisch. Aufgefasst als komplexe Matrix ist eine reelle symmetrische Matrix stets hermitesch, denn es gilt

A^H = \bar{A}^T = A^T = A,

wobei A^H die adjungierte Matrix zu A und \bar{A} die konjugierte Matrix zu A ist. Damit sind reelle symmetrische Matrizen auch selbstadjungiert bezüglich des komplexen Standardskalarprodukts.

Eigenwerte[Bearbeiten]

Durch eine reelle symmetrische (2×2)-Matrix wird der Einheitskreis (blau) in eine Ellipse (grün) transformiert. Die Halbachsen der Ellipse (rot) entsprechen den Beträgen der Eigenwerte der Matrix.

Die Eigenwerte einer reellen symmetrischen Matrix A \in \R^{n \times n}, das heißt die Lösungen der Eigenwertgleichung A x = \lambda x, sind stets reell. Ist nämlich \lambda \in \C ein komplexer Eigenwert von A mit zugehörigem Eigenvektor x \in \C^n, x \neq 0, dann gilt mit der komplexen Selbstadjungiertheit von A

\lambda \langle x, x \rangle = \langle \lambda x, x \rangle = \langle A x, x \rangle = \langle x, A x \rangle = \langle x, \lambda x \rangle = \bar\lambda \langle x, x \rangle.

Nachdem \langle x, x \rangle \neq 0 für x \neq 0 ist, muss \lambda = \bar\lambda gelten und der Eigenwert \lambda damit reell sein. Daraus folgt dann auch, dass der zugehörige Eigenvektor x reell gewählt werden kann.

Vielfachheiten[Bearbeiten]

Bei jeder reellen symmetrischen Matrix A \in \R^{n \times n} stimmen die algebraischen und die geometrischen Vielfachheiten aller Eigenwerte überein. Ist nämlich \lambda ein Eigenwert von A mit geometrischer Vielfachheit k, dann existiert eine Orthonormalbasis \{ x_1, \ldots , x_k \} des Eigenraums von \lambda, welche durch \{ x_{k+1}, \ldots , x_n \} zu einer Orthonormalbasis des Gesamtraums \R^{n} ergänzt werden kann. Mit der orthogonalen Basistransformationsmatrix S = ( x_1 \mid \cdots \mid x_n ) ergibt sich damit die transformierte Matrix

C = S^{-1} A S = S^T A S = \left( \begin{array}{c|c} \lambda I & 0 \\ \hline 0 & X \end{array} \right)

als Blockdiagonalmatrix mit den Blöcken \lambda I \in \R^{k \times k} und X \in \R^{(n-k) \times (n-k)}. Für die Einträge c_{ij} von C mit \min \{ i,j \} \leq k gilt nämlich mit der Selbstadjungiertheit von A und der Orthonormalität der Basisvektoren x_1, \ldots , x_n

c_{ij} = \langle x_i, A x_j \rangle = \langle A x_i, x_j \rangle = \lambda \langle x_i, x_j \rangle = \lambda \delta_{ij} ,

wobei \delta_{ij} das Kronecker-Delta darstellt. Da x_{k+1}, \ldots , x_n nach Voraussetzung keine Eigenvektoren zum Eigenwert \lambda von A sind, kann \lambda kein Eigenwert von X sein. Die Matrix C besitzt daher nach der Determinantenformel für Blockmatrizen den Eigenwert \lambda genau mit algebraischer Vielfachheit k und aufgrund der Ähnlichkeit der beiden Matrizen damit auch A.[2]

Diagonalisierbarkeit[Bearbeiten]

Nachdem bei einer reellen symmetrischen Matrix A \in \R^{n \times n} algebraische und geometrische Vielfachheiten aller Eigenwerte übereinstimmen und da Eigenvektoren zu verschiedenen Eigenwerten stets linear unabhängig sind, kann aus Eigenvektoren von A eine Basis des \R^n gebildet werden. Daher ist eine reelle symmetrische Matrix stets diagonalisierbar, das heißt es gibt eine reguläre Matrix S \in \R^{n \times n} und eine Diagonalmatrix D \in \R^{n \times n}, sodass

S^{-1} A S = D

gilt. Die Matrix S = (x_1 \mid \cdots \mid x_n) hat dabei die Eigenvektoren x_1, \ldots, x_n als Spalten und die Matrix D = \operatorname{diag}(\lambda_1, \ldots , \lambda_n) hat die zu diesen Eigenvektoren jeweils zugehörigen Eigenwerte \lambda_1, \ldots, \lambda_n auf der Diagonalen. Durch eine Permutation der Eigenvektoren kann dabei die Reihenfolge der Diagonaleinträge von D beliebig gewählt werden. Daher sind zwei reelle symmetrische Matrizen genau dann zueinander ähnlich, wenn sie die gleichen Eigenwerte besitzen. Weiterhin sind zwei reelle symmetrische Matrizen genau dann simultan diagonalisierbar, wenn sie kommutieren.

Orthogonale Diagonalisierbarkeit[Bearbeiten]

Bei einer symmetrischen Matrix stehen die Eigenvektoren (blau und violett) zu verschiedenen Eigenwerten (hier 3 und 1) senkrecht aufeinander. Durch Anwendung der Matrix werden blaue Vektoren um den Faktor drei gestreckt, während violette Vektoren ihre Länge beibehalten.

Die Eigenvektoren x_i, x_j zu zwei verschiedenen Eigenwerten \lambda_i \neq \lambda_j einer reellen symmetrischen Matrix A \in \R^{n \times n} sind stets orthogonal. Es gilt nämlich wiederum mit der Selbstadjungiertheit von A

\lambda_i \langle x_i, x_j \rangle = \langle \lambda_i x_i, x_j \rangle = \langle A x_i, x_j \rangle = \langle x_i, A x_j \rangle = \langle x_i, \lambda_j x_j \rangle = \lambda_j \langle x_i, x_j \rangle.

Da \lambda_i und \lambda_j als verschieden angenommen wurden folgt daraus dann \langle x_i, x_j \rangle = 0. Daher kann aus Eigenvektoren von A eine Orthonormalbasis des \R^n gebildet werden. Damit ist eine reelle symmetrische Matrix sogar orthogonal diagonalisierbar, das heißt es gibt eine orthogonale Matrix S, mit der

S^T A S = D

gilt. Diese Darstellung bildet die Grundlage für die Hauptachsentransformation und ist die einfachste Version des Spektralsatzes.

Kenngrößen[Bearbeiten]

Aufgrund der Diagonalisierbarkeit einer reellen symmetrischen Matrix A \in \R^{n \times n} gilt für ihre Spur

\operatorname{spur}(A) = \lambda_1 + \ldots + \lambda_n

und für ihre Determinante entsprechend

\det(A) = \lambda_1 \cdot \ldots \cdot \lambda_n.

Der Rang einer reellen symmetrischen Matrix ist gleich der Anzahl der Eigenwerte ungleich Null, also mit dem Kronecker-Delta

\operatorname{rang}(A) = n - \left( \delta_{\lambda_1,0} + \ldots + \delta_{\lambda_n,0} \right).

Eine reelle symmetrische Matrix ist genau dann invertierbar wenn keiner ihrer Eigenwerte Null ist. Die Spektralnorm einer reellen symmetrischen Matrix ist

\| A \|_2 = \max \{ | \lambda_1 |, \ldots , | \lambda_n | \}

und damit gleich dem Spektralradius der Matrix. Die Frobeniusnorm ergibt sich aufgrund der Normalität entsprechend zu

\| A \|_F = \sqrt{ \lambda_1^2 + \ldots + \lambda_n^2}.

Abschätzungen[Bearbeiten]

Nach dem Satz von Courant-Fischer liefert der Rayleigh-Quotient Abschätzungen für den kleinsten und den größten Eigenwert einer reellen symmetrischen Matrix A \in \R^{n \times n} der Form

\min\{ \lambda_1, \ldots , \lambda_n\} \leq \frac{\langle x, Ax \rangle}{\langle x,x \rangle} \leq \max\{ \lambda_1, \ldots , \lambda_n\}

für alle x \in \R^n mit x \neq 0. Gleichheit gilt dabei jeweils genau dann, wenn x ein Eigenvektor zum jeweiligen Eigenwert ist. Der kleinste und der größte Eigenwert einer reellen symmetrischen Matrix kann demnach durch Minimierung beziehungsweise Maximierung des Rayleigh-Quotienten ermittelt werden. Eine weitere Möglichkeit zur Eigenwertabschätzung bieten die Gerschgorin-Kreise, die für reelle symmetrische Matrizen die Form von Intervallen haben.

Sind A,B \in \R^{n \times n} zwei reelle symmetrische Matrizen mit absteigend sortierten Eigenwerten \lambda_1 \geq \ldots \geq \lambda_n und \mu_1 \geq \ldots \geq \mu_n, dann gibt die Fan-Ungleichung die Abschätzung

\operatorname{spur}(AB) \leq \lambda_1 \mu_1 + \ldots + \lambda_n \mu_n.

Gleichheit ist hierbei genau dann erfüllt, wenn die Matrizen A und B simultan geordnet diagonalisierbar sind, das heißt wenn eine orthogonale Matrix S \in \R^{n \times n} existiert, sodass A = S \operatorname{diag}(\lambda_1, \ldots , \lambda_n) S^T und B = S \operatorname{diag}(\mu_1, \ldots , \mu_n) S^T gelten. Die Fan-Ungleichung stellt eine Verschärfung der Cauchy-Schwarz-Ungleichung für das Frobenius-Skalarprodukt und eine Verallgemeinerung der Umordnungs-Ungleichung für Vektoren dar.[3]

Definitheit[Bearbeiten]

Hauptartikel: Definitheit

Ist A \in \R^{n \times n} eine reelle symmetrische Matrix, dann wird der Ausdruck

Q_A(x) = x^T A x = \langle x, Ax \rangle

mit x \in \R^n quadratische Form von A genannt. Je nachdem ob Q_A(x) größer als, größer gleich, kleiner als oder kleiner gleich null für alle x \neq 0 ist, heißt die Matrix A positiv definit, positiv semidefinit, negativ definit oder negativ semidefinit. Kann Q_A(x) sowohl positive, als auch negative Vorzeichen annehmen, so heißt A indefinit. Die Definitheit einer reellen symmetrischen Matrix kann anhand der Vorzeichen ihrer Eigenwerte ermittelt werden. Sind alle Eigenwerte positiv, ist die Matrix positiv definit, sind sie alle negativ, ist die Matrix negativ definit und so weiter. Das Tripel bestehend aus den Anzahlen der positiven, negativen und Null-Eigenwerte einer reellen symmetrischen Matrix wird Signatur der Matrix genannt. Nach dem Trägheitssatz von Sylvester bleibt die Signatur einer reellen symmetrischen Matrix unter Kongruenztransformationen erhalten.

Komplexe symmetrische Matrizen[Bearbeiten]

Zerlegung[Bearbeiten]

Die Zerlegung des komplexen Matrizenraums {\mathbb C}^{n \times n} als direkte Summe der Räume symmetrischer und schiefsymmetrischer Matrizen

{\mathbb C}^{n \times n} = \operatorname{Symm}_n \oplus \operatorname{Skew}_n

stellt eine orthogonale Summe bezüglich des Frobenius-Skalarprodukts dar. Es gilt nämlich

\langle A, B \rangle_F = \operatorname{spur}(A^HB) = \operatorname{spur}(\bar{A}B) = \operatorname{spur}(B\bar{A}) = \operatorname{spur}((B\bar{A})^T) = -\operatorname{spur}(A^HB) = -\langle A, B \rangle_F

für alle Matrizen A \in \operatorname{Symm}_n und B \in \operatorname{Skew}_n, woraus \langle A, B \rangle_F = 0 folgt. Die Orthogonalität der Zerlegung gilt entsprechend auch für den reellen Matrizenraum {\mathbb R}^{n \times n}.

Spektrum[Bearbeiten]

Bei komplexen Matrizen A \in \C^{n \times n} hat die Symmetrie keine besonderen Auswirkungen auf das Spektrum. Eine komplexe symmetrische Matrix kann – im Gegensatz zu einer hermiteschen Matrix – auch nicht-reelle Eigenwerte besitzen. Beispielsweise hat die komplexe symmetrische Matrix

A = \begin{pmatrix} 1 & i \\ i & 1 \end{pmatrix} \in \C^{2 \times 2}

die beiden Eigenwerte \lambda_{1,2} = 1 \pm i. Es gibt auch komplexe symmetrische Matrizen, die nicht diagonalisierbar sind. Zum Beispiel besitzt die Matrix

A = \begin{pmatrix} 1 & i \\ i & -1 \end{pmatrix} \in \C^{2 \times 2}

den einzigen Eigenwert \lambda = 0 mit algebraischer Vielfachheit zwei und geometrischer Vielfachheit eins. Allgemein ist sogar jede komplexe quadratische Matrix ähnlich zu einer komplexen symmetrischen Matrix. Daher weist das Spektrum einer komplexen symmetrischen Matrix keinerlei Besonderheiten auf.[4]

Faktorisierung[Bearbeiten]

Jede komplexe symmetrische Matrix A \in \C^{n \times n} lässt sich durch die Autonne-Takagi-Faktorisierung

U^T A U = D

in eine unitäre Matrix U \in \C^{n \times n}, eine reelle Diagonalmatrix D = \operatorname{diag}(\sigma_1, \ldots , \sigma_n) \in \R^{n \times n} und die Transponierte von U zerlegen. Die Einträge der Diagonalmatrix sind dabei die Singulärwerte von A, also die Quadratwurzeln der Eigenwerte von A^HA.[5]

Verwendung[Bearbeiten]

Symmetrische Bilinearformen[Bearbeiten]

Ist V ein n-dimensionaler Vektorraum über dem Körper K, dann lässt sich jede Bilinearform b \colon V \times V \to K nach Wahl einer Basis \{ v_1, \ldots , v_n \} für V durch die Darstellungsmatrix

A_b = ( b(v_i, v_j) ) \in K^{n \times n}

beschreiben. Ist die Bilinearform symmetrisch, gilt also b(v,w)=b(w,v) für alle v, w \in V, dann ist auch die Darstellungsmatrix A_b symmetrisch. Umgekehrt definiert jede symmetrische Matrix A \in K^{n \times n} mittels

b_A(x,y) = x^T A y

eine symmetrische Bilinearform b_A \colon K^n \times K^n \to K. Ist eine reelle symmetrische Matrix A \in \R^{n \times n} zudem positiv definit, dann stellt b_A ein Skalarprodukt im euklidischen Raum \R^n dar.

Selbstadjungierte Abbildungen[Bearbeiten]

Ist (V, \langle \cdot, \cdot \rangle) ein n-dimensionaler reeller Skalarproduktraum, dann lässt sich jede lineare Abbildung f \colon V \to V nach Wahl einer Orthonormalbasis \{ e_1, \ldots , e_n \} für V durch die Abbildungsmatrix

A_f = ( a_{ij} ) \in \R^{n \times n}

darstellen, wobei f(e_j) = a_{1j}e_1 + \ldots + a_{nj}e_n für j=1, \ldots , n ist. Die Abbildungsmatrix A_f ist nun genau dann symmetrisch, wenn die Abbildung f selbstadjungiert ist. Dies folgt aus

\langle f(v), w \rangle = (A_fx)^Ty = x^TA_f^Ty = x^TA_fy = x^T(A_fy) = \langle v, f(w) \rangle,

wobei v=x_1 e_1+ \ldots + x_n e_n und w=y_1 e_1 + \ldots + y_n e_n sind.

Projektionen und Spiegelungen[Bearbeiten]

Orthogonale Zerlegungen werden durch symmetrische Matrizen beschrieben

Ist wieder ( V, \langle \cdot , \cdot \rangle ) ein n-dimensionaler reeller Skalarproduktraum und ist U ein k-dimensionaler Untervektorraum von V, wobei x_1, \ldots , x_k die Koordinatenvektoren einer Orthonormalbasis für U sind, dann ist die Orthogonalprojektionsmatrix auf diesen Untervektorraum

A_U = x_1 x_1^T + \ldots + x_k x_k^T \in \R^{n \times n}

als Summe symmetrischer Rang-Eins-Matrizen ebenfalls symmetrisch. Auch die Orthogonalprojektionsmatrix auf den Komplementärraum U^\bot ist aufgrund der Darstellung A_{U^\bot}=I-A_U stets symmetrisch. Mit Hilfe der Projektionsmatrizen A_U und A_{U^\perp} lässt sich jeder Vektor v \in V in zueinander orthogonale Vektoren u \in U und u^\perp \in U^\perp zerlegen. Auch die Spiegelungsmatrix I-2A_U an einem Untervektorraum U ist stets symmetrisch.

Lineare Gleichungssysteme[Bearbeiten]

Das Auffinden der Lösung eines linearen Gleichungssystems Ax=b mit symmetrischer Koeffizientenmatrix A vereinfacht sich, wenn man die Symmetrie der Koeffizientenmatrix ausnutzt. Auf Grund der Symmetrie lässt sich die Koeffizientenmatrix A als Produkt

A = LDL^T

mit einer unteren Dreiecksmatrix L mit lauter Einsen auf der Diagonale und einer Diagonalmatrix D schreiben. Diese Zerlegung wird beispielsweise bei der Cholesky-Zerlegung positiv definiter symmetrischer Matrizen verwendet, um die Lösung des Gleichungssystems zu berechnen. Beispiele moderner Verfahren zur numerischen Lösung großer linearer Gleichungssysteme mit dünnbesetzter symmetrischer Koeffizientenmatrix sind das CG-Verfahren und das MINRES-Verfahren.

Polarzerlegung[Bearbeiten]

Jede quadratische Matrix A \in \R^{n \times n} kann mittels der Polarzerlegung auch als Produkt

A = Q P

einer orthogonalen Matrix Q \in \R^{n \times n} und einer positiv semidefiniten symmetrischen Matrix P \in \R^{n \times n} faktorisiert werden. Die Matrix P ergibt sich dabei als die Quadratwurzel von A^TA. Ist A regulär, so ist P positiv definit und die Polarzerlegung eindeutig mit Q = A P^{-1}.

Anwendungen[Bearbeiten]

Geometrie[Bearbeiten]

Quadriken können durch symmetrische Matrizen beschrieben werden

Eine Quadrik im n-dimensionalen euklidischen Raum ist die Nullstellenmenge eines quadratischen Polynoms in n Variablen. Jede Quadrik kann somit als Punktmenge der Form

Q = \left\{ x \in \R^n \mid x^T A x + 2 b^T x + c = 0 \right \}

beschrieben werden, wobei A \in \R^{n \times n} mit A \neq 0 eine symmetrische Matrix, b \in \R^n und c \in \R sind.

Analysis[Bearbeiten]

Die Charakterisierung der kritischen Punkte einer zweimal stetig differenzierbaren Funktion f \colon D \subset \R^n \to \R kann mit Hilfe der Hesse-Matrix

H_f(x) = \left(\frac{\partial^2f}{\partial x_i\partial x_j}(x)\right) \in \R^{n \times n}

vorgenommen werden. Nach dem Satz von Schwarz ist die Hesse-Matrix stets symmetrisch. Je nachdem ob H_f(x) positiv definit, negativ definit oder indefinit ist, liegt an der kritischen Stelle x ein lokales Minimum, ein lokales Maximum oder ein Sattelpunkt vor.

Graphentheorie[Bearbeiten]

Ein ungerichteter kanten­gewichteter Graph besitzt stets eine symmetrische Adjazenzmatrix

Die Adjazenzmatrix A_G eines ungerichteten kantengewichteten Graphen G=(V,E,d) mit der Knotenmenge V = \{ v_1, \ldots, v_n \} ist durch

A_G = (a_{ij}) \in \bar{\R}^{n \times n}   mit   a_{ij} = \begin{cases} d(e) & \text{falls} ~ e=\{ v_i,v_j \} \in E \\ \infty & \text{sonst} \end{cases}

gegeben und damit ebenfalls stets symmetrisch. Auch von der Adjazenzmatrix durch Summation oder Potenzierung abgeleitete Matrizen, wie die Laplace-Matrix, die Erreichbarkeitsmatrix oder die Entfernungsmatrix, sind dann symmetrisch. Die Analyse solcher Matrizen ist Gegenstand der spektralen Graphentheorie.

Stochastik[Bearbeiten]

Ist X = ( X_1 , \ldots , X_n ) ein Zufallsvektor bestehend aus n reellen Zufallsvariablen X_1 , \ldots , X_n mit endlicher Varianz, dann ist die zugehörige Kovarianzmatrix

\Sigma_X = \left( \operatorname{Cov}(X_i, X_j) \right) \in \R^{n \times n}

die Matrix aller paarweisen Kovarianzen dieser Zufallsvariablen. Nachdem \operatorname{Cov}(X_i,X_j) = \operatorname{Cov}(X_j,X_i) für i,j = 1, \ldots , n gilt, ist eine Kovarianzmatrix stets symmetrisch.

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

  • Gerd Fischer: Lineare Algebra. (Eine Einführung für Studienanfänger). 13. durchgesehene Auflage. Vieweg, Braunschweig u. a. 2002, ISBN 3-528-97217-3.
  •  Roger A. Horn, Charles R. Johnson: Matrix Analysis. Cambridge University Press, 2012, ISBN 0-521-46713-6.
  • Hans-Rudolf Schwarz, Norbert Köckler: Numerische Mathematik. 5. überarbeitete Auflage. Teubner, Stuttgart u. a. 2004, ISBN 3-519-42960-8.

Einzelnachweise[Bearbeiten]

  1.  Christoph W. Überhuber: Computer-Numerik. Band 2, Springer, 1995, S. 401f.
  2.  Howard Anton, Chris Rorres: Elementary Linear Algebra: Applications Version. John Wiley & Sons, 2010, S. 404–405.
  3.  Jonathan M. Borwein, Adrian S. Lewis: Convex Analysis and Nonlinear Optimization: Theory and Examples. Springer, 2010, ISBN 978-0-38731-256-9, S. 10.
  4.  Roger A. Horn, Charles R. Johnson: Matrix Analysis. Cambridge University Press, 2012, S. 271.
  5.  Roger A. Horn, Charles R. Johnson: Matrix Analysis. Cambridge University Press, 2012, S. 153.

Weblinks[Bearbeiten]