Symmetrische Matrix

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Unter einer symmetrischen Matrix versteht man in der linearen Algebra, einem Teilgebiet der Mathematik, eine Matrix, die symmetrisch zur Hauptdiagonalen ist.

Symmetrische Matrizen dienen dazu, symmetrische Bilinearformen zu beschreiben. Insbesondere werden reelle Skalarprodukte durch reelle symmetrische Matrizen beschrieben. In der Theorie der endlichdimensionalen reellen Prähilberträume dienen symmetrische Matrizen dazu, selbstadjungierte Abbildungen zu beschreiben: Die Darstellungsmatrix einer selbstadjungierten Abbildung bezüglich einer Orthonormalbasis ist symmetrisch. Hingegen werden komplexe Skalarprodukte und selbstadjungierte Abbildungen in komplexen Prähilberträumen durch hermitesche Matrizen beschrieben.

Definition[Bearbeiten]

Eine quadratische n \times n-Matrix A heißt symmetrisch, wenn sie mit ihrer Transponierten A^T übereinstimmt:

A = A^T

Anders ausgedrückt: Die Matrix A ist symmetrisch, wenn für ihre Einträge a_{ij} gilt: a_{ij} = a_{ji} für alle i, j \in\{1,\ldots,n\}.

Beispiele[Bearbeiten]


\begin{pmatrix} 
a & b & c \\
b & d & e \\
c & e & f 
\end{pmatrix}
,\quad
\begin{pmatrix} 
1 & 3 & 0 \\
3 & 2 & 6 \\
0 & 6 & 5 
\end{pmatrix}
,\quad
\begin{pmatrix} 
1 & 5 \\
5 & 7
\end{pmatrix}
,\quad
\begin{pmatrix} 
2
\end{pmatrix}

Eigenschaften[Bearbeiten]

Matrizen über beliebigen Körpern[Bearbeiten]

Die Menge der symmetrischen n\times n-Matrizen über dem Körper K ist ein Untervektorraum von K^{n \times n} der Dimension \tfrac{n^2+n}{2}.

Reelle Matrizen[Bearbeiten]

Symmetrische Matrizen über \R sind normal. Eine reelle symmetrische Matrix ist als normale Matrix diagonalisierbar mit einem vollen Satz Eigenvektoren, wobei die Eigenvektoren zu verschiedenen Eigenwerten orthogonal sind.

Mit anderen Worten: Ist A \in \R^{n \times n} und bezeichnet man mit s_i die orthonormierten Eigenvektoren von A, so gilt mit S = (s_i)_{i\in \{1,...,n\}}, dass S^TAS = D bzw. A=SDS^T mit einer Diagonalmatrix D, welche die Eigenwerte zu den Eigenvektoren s_i in der entsprechenden Reihenfolge auf der Diagonalen hat.

Aus der Eigenschaft  A=A^T folgt außerdem sofort, dass A über einem reellen Vektorraum \mathbb{R}^n selbstadjungiert ist und daher nur reelle Eigenwerte auftreten können.

Lösung linearer Gleichungssysteme[Bearbeiten]

Das Auffinden der Lösung eines linearen Gleichungssystems mit positiv symmetrischer Koeffizientenmatrix vereinfacht sich, wenn man die Symmetrie der Koeffizientenmatrix ausnutzt. Auf Grund der Symmetrie lässt sich die Koeffizientenmatrix A als Produkt A = LDL^T mit strikter linker unterer Dreiecksmatrix L und Diagonalmatrix D schreiben. Diese Zerlegung wird beispielsweise bei der Cholesky-Zerlegung verwendet, um die Lösung des Gleichungssystems zu berechnen.

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

  • Gerd Fischer: Lineare Algebra. (Eine Einführung für Studienanfänger). 13., durchgesehene Auflage. Vieweg, Braunschweig u. a. 2002, ISBN 3-528-97217-3.
  • Hans-Rudolf Schwarz, Norbert Köckler: Numerische Mathematik. 5., überarbeitete Auflage. Teubner, Stuttgart u. a. 2004, ISBN 3-519-42960-8.