Hermitesche Matrix

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Eine hermitesche Matrix ist in der Mathematik eine komplexe quadratische Matrix, die gleich ihrer adjungierten Matrix ist. Die Einträge einer hermiteschen Matrix oberhalb der Hauptdiagonale ergeben sich demnach durch Spiegelung der Einträge unterhalb der Diagonale und nachfolgender komplexer Konjugation; die Einträge auf der Hauptdiagonale selbst sind alle reell. Hermitesche Matrizen sind nach dem Mathematiker Charles Hermite benannt.

Hermitesche Matrizen weisen eine Reihe besonderer Eigenschaften auf. Die Summe zweier hermitescher Matrizen ist stets wieder hermitesch. Jede komplexe quadratische Matrix lässt sich eindeutig als Summe einer hermiteschen und einer schiefhermiteschen Matrix schreiben. Das Produkt zweier hermitescher Matrizen ist wiederum hermitesch, sofern die beiden Matrizen kommutieren. Eine hermitesche Matrix ist stets normal und selbstadjungiert, sie besitzt nur reelle Eigenwerte und sie ist stets unitär diagonalisierbar. Eine wichtige Klasse hermitescher Matrizen sind positiv definite Matrizen, bei denen alle Eigenwerte positiv sind. Eine hermitesche Matrix mit reellen Einträgen ist symmetrisch.

In der linearen Algebra werden hermitesche Matrizen zur Beschreibung hermitescher Sesquilinearformen verwendet. Die Darstellungsmatrix einer komplexen selbstadjungierten Abbildung bezüglich einer Orthonormalbasis ist ebenfalls stets hermitesch. Lineare Gleichungssysteme mit hermitescher Koeffizientenmatrix lassen sich effizient und numerisch stabil lösen. Weiterhin werden hermitesche Matrizen bei Orthogonalprojektionen und bei der Polarzerlegung von Matrizen verwendet. Hermitesche Matrizen besitzen Anwendungen unter anderem in der Quantenmechanik.

Definition[Bearbeiten]

Eine komplexe quadratische Matrix A \in \C^{n \times n} heißt hermitesch, wenn sie mit ihrer Adjungierten A^H übereinstimmt, also

A = A^H

gilt. Äquivalent dazu ist eine Matrix ist genau dann hermitesch, wenn ihre transponierte Matrix A^T gleich ihrer konjugierten Matrix \bar A ist, also

A^T = \bar{A}

gilt. Für die Einträge a_{jk} einer hermiteschen Matrix gilt demnach

a_{jk} = \overline{a_{kj}}

für j, k = 1, \ldots, n. Die Einträge einer hermiteschen Matrix sind also bis auf komplexe Konjugation spiegelsymmetrisch bezüglich der Hauptdiagonale.

Beispiele[Bearbeiten]

Beispiele für hermitesche Matrizen sind (\mathrm{i} stellt die imaginäre Einheit dar):


\begin{pmatrix} 
2
\end{pmatrix}
,\quad
\begin{pmatrix} 
1 & \mathrm{i} \\
-\mathrm{i} & 1
\end{pmatrix}
,\quad
\begin{pmatrix} 
1 & 3-\mathrm{i} & 4 \\
3+\mathrm{i} & -2 & -6+\mathrm{i} \\
4 & -6-\mathrm{i} & 5 
\end{pmatrix}
.

Allgemein haben hermitesche Matrizen der Größe 2 \times 2, 3 \times 3 und 4 \times 4 die Struktur


\begin{pmatrix} 
a & \bar{b} \\
b & c 
\end{pmatrix}
,\quad
\begin{pmatrix} 
a & \bar{b} & \bar{c} \\
b & d & \bar{e} \\
c & e & f 
\end{pmatrix}
,\quad
\begin{pmatrix} 
a & \bar{b} & \bar{c} & \bar{d} \\
b & e & \bar{f} & \bar{g} \\
c & f & h & \bar{i} \\
d & g & i & j
\end{pmatrix}

mit reellen Zahlen auf der Hauptdiagonale.

Algebraische Eigenschaften[Bearbeiten]

Einträge[Bearbeiten]

Die Diagonaleinträge einer hermiteschen Matrix sind aufgrund von

a_{jj} = \overline{a_{jj}}

stets reell. Die Matrix aus den Realteilen einer hermiteschen Matrix ist stets symmetrisch, denn

\mathrm{Re}(a_{jk}) = \mathrm{Re}(a_{kj}),

und die Matrix aus den Imaginärteilen einer hermiteschen Matrix stets schiefsymmetrisch, denn

 \mathrm{Im}(a_{jk}) = - \mathrm{Im}(a_{kj}).

Daher wird eine hermitesche Matrix durch

n + \frac{n(n-1)}{2} + \frac{n(n-1)}{2} = n^2

reelle Zahlen eindeutig charakterisiert. Im Vergleich dazu wird eine allgemeine komplexe (n \times n)-Matrix durch 2n^2 reelle Zahlen beschrieben, also gerade doppelt so viele.

Summe[Bearbeiten]

Die Summe A + B zweier hermitescher Matrizen A,B \in \C^{n \times n} ist stets wieder hermitesch, denn

(A + B)^H = A^H + B^H = A + B.

Zudem lässt sich jede komplexe quadratische Matrix M \in \C^{n \times n} eindeutig als Summe M = A + B einer hermiteschen Matrix A und einer schiefhermiteschen Matrix B schreiben, indem

A = \frac{1}{2}(M + M^H)   und   B = \frac{1}{2}(M - M^H)

gewählt werden.

Skalarmultiplikation[Bearbeiten]

Das Produkt c A einer hermiteschen Matrix A \in \C^{n \times n} mit einem Skalar c \in \C ist nur wieder hermitesch, wenn c reell ist, denn dann gilt

(c A)^H = {\bar c} A^H = c A.

Wenn c rein imaginär ist, dann ist das Produkt c A schiefhermitesch. Die hermiteschen Matrizen bilden demnach keinen Untervektorraum im \C-Vektorraum der komplexen quadratischen Matrizen, sondern lediglich einen Untervektorraum im \R-Vektorraum der komplexen quadratischen Matrizen. Dieser Untervektorraum hat die Dimension n^2, wobei die Standardmatrizen E_{jj}, 1 \leq j \leq n, E_{jk}+E_{kj} und \mathrm{i}(E_{jk}-E_{kj}), 1 \leq j < k \leq n, darin eine Basis bilden. Im Raum der hermiteschen Matrizen bilden wiederum die reellen symmetrischen Matrizen einen Untervektorraum.

Produkt[Bearbeiten]

Das Produkt A B zweier hermitescher Matrizen A,B \in \C^{n\times n} ist im Allgemeinen nicht wieder hermitesch. Das Produkt hermitescher Matrizen ist genau dann hermitesch, wenn A und B kommutieren, also wenn A B = B A gilt, denn dann ergibt sich

(A B)^H = B^H A^H = B A = A B.

Insbesondere sind damit für eine hermitesche Matrix A auch alle ihre Potenzen A^k mit k \in \N und daher auch ihr Matrixexponential e^A wieder hermitesch. Für eine beliebige komplexe Matrix M \in \C^{m \times n} sind sowohl die m \times m-Matrix M M^H als auch die n \times n-Matrix M^H M stets hermitesch.

Normalität[Bearbeiten]

Eine hermitesche Matrix A \in \C^{n \times n} ist stets normal, denn es gilt

A^H A = A A = A A^H.

Jede hermitesche Matrix kommutiert also mit ihrer Adjungierten. Es gibt allerdings auch normale Matrizen, die nicht hermitesch sind, beispielsweise schiefhermitesche Matrizen.

Kongruenz[Bearbeiten]

Jede komplexe Matrix B \in \C^{n \times n}, die kongruent zu einer hermiteschen Matrix A \in \C^{n\times n} ist, ist ebenfalls hermitesch, denn es gilt

B^H = (S^H A S)^H = S^H A^H S = S^H A S = B

für eine beliebige quadratische Matrix S \in \C^{n \times n}. Matrizen, die ähnlich zu einer hermiteschen Matrix sind, müssen jedoch nicht notwendigerweise ebenfalls hermitesch sein.

Inverse[Bearbeiten]

Ist eine hermitesche Matrix A \in \C^{n \times n} invertierbar, dann ist auch ihre Inverse A^{-1} wieder hermitesch, denn es gilt

(A^{-1})^H = (A^H)^{-1} = A^{-1}.

Für eine reguläre hermitesche Matrix A sind demnach auch alle Potenzen A^{-k} mit k \in \N wieder hermitesch.

Spektrale Eigenschaften[Bearbeiten]

Selbstadjungiertheit[Bearbeiten]

Eine hermitesche Matrix A \in \C^{n \times n} ist stets selbstadjungiert, denn es gilt mit dem komplexen Standardskalarprodukt \langle \cdot, \cdot \rangle

\langle A x, y \rangle = (A x)^H y = x^H A^H y = x^H A y = \langle x, A y \rangle

für alle Vektoren x,y \in \C^n. Es gilt auch die Umkehrung und jede komplexe selbstadjungierte Matrix ist hermitesch.

Eigenwerte[Bearbeiten]

Die Eigenwerte einer hermiteschen Matrix A \in \C^{n \times n}, das heißt die Lösungen der Eigenwertgleichung A x = \lambda x, sind stets reell. Ist nämlich \lambda \in \C ein komplexer Eigenwert von A mit zugehörigem Eigenvektor x \in \C^n, x \neq 0, dann gilt mit der Selbstadjungiertheit von A

\lambda \langle x, x \rangle = \langle \lambda x, x \rangle = \langle A x, x \rangle = \langle x, A x \rangle = \langle x, \lambda x \rangle = \bar\lambda \langle x, x \rangle.

Nachdem \langle x, x \rangle \neq 0 für x \neq 0 ist, muss \lambda = \bar\lambda gelten und der Eigenwert \lambda damit reell sein.

Vielfachheiten[Bearbeiten]

Bei jeder hermiteschen Matrix A \in \C^{n \times n} stimmen die algebraischen und die geometrischen Vielfachheiten aller Eigenwerte überein. Ist nämlich \lambda ein Eigenwert von A mit geometrischer Vielfachheit m, dann existiert eine Orthonormalbasis \{ x_1, \ldots , x_m \} des Eigenraums von \lambda, welche durch \{ x_{m+1}, \ldots , x_n \} zu einer Orthonormalbasis des Gesamtraums \C^{n} ergänzt werden kann. Mit der unitären Basistransformationsmatrix S = ( x_1 \mid \cdots \mid x_n ) ergibt sich damit die transformierte Matrix

C = S^{-1} A S = S^H A S = \left( \begin{array}{c|c} \lambda I & 0 \\ \hline 0 & X \end{array} \right)

als Blockdiagonalmatrix mit den Blöcken \lambda I \in \C^{m \times m} und X \in \C^{(n-m) \times (n-m)}. Für die Einträge c_{jk} von C mit \min \{ j,k \} \leq m gilt nämlich mit der Selbstadjungiertheit von A und der Orthonormalität der Basisvektoren x_1, \ldots , x_n

c_{jk} = \langle x_j, A x_k \rangle = \langle A x_j, x_k \rangle = \lambda \langle x_j, x_k \rangle = \lambda \delta_{jk} ,

wobei \delta_{jk} das Kronecker-Delta darstellt. Da x_{m+1}, \ldots , x_n nach Voraussetzung keine Eigenvektoren zum Eigenwert \lambda von A sind, kann \lambda kein Eigenwert von X sein. Die Matrix C besitzt daher nach der Determinantenformel für Blockmatrizen den Eigenwert \lambda genau mit algebraischer Vielfachheit m und aufgrund der Ähnlichkeit der beiden Matrizen damit auch A.[1]

Diagonalisierbarkeit[Bearbeiten]

Nachdem bei einer hermiteschen Matrix A \in \C^{n \times n} algebraische und geometrische Vielfachheiten aller Eigenwerte übereinstimmen und da Eigenvektoren zu verschiedenen Eigenwerten stets linear unabhängig sind, kann aus Eigenvektoren von A eine Basis des \C^n gebildet werden. Daher ist eine hermitesche Matrix stets diagonalisierbar, das heißt, es gibt eine reguläre Matrix S \in \C^{n \times n} und eine Diagonalmatrix D \in \C^{n \times n} (sogar D \in \R^{n \times n}), sodass

S^{-1} A S = D

gilt. Die Matrix S = (x_1 \mid \cdots \mid x_n) hat dabei die Eigenvektoren x_1, \ldots, x_n als Spalten und die Matrix D = \operatorname{diag}(\lambda_1, \ldots , \lambda_n) hat die zu diesen Eigenvektoren jeweils zugehörigen Eigenwerte \lambda_1, \ldots, \lambda_n auf der Diagonalen. Durch eine Permutation der Eigenvektoren kann dabei die Reihenfolge der Diagonaleinträge von D beliebig gewählt werden. Daher sind zwei hermitesche Matrizen genau dann zueinander ähnlich, wenn sie die gleichen Eigenwerte besitzen. Weiterhin sind zwei hermitesche Matrizen genau dann simultan diagonalisierbar, wenn sie kommutieren.

Unitäre Diagonalisierbarkeit[Bearbeiten]

Die Eigenvektoren x_j, x_k zu zwei verschiedenen Eigenwerten \lambda_j \neq \lambda_k einer hermiteschen Matrix A \in \C^{n \times n} sind stets orthogonal. Es gilt nämlich wiederum mit der Selbstadjungiertheit von A

\lambda_j \langle x_j, x_k \rangle = \langle \lambda_j x_j, x_k \rangle = \langle A x_j, x_k \rangle = \langle x_j, A x_k \rangle = \langle x_j, \lambda_k x_k \rangle = \lambda_k \langle x_j, x_k \rangle.

Da \lambda_j und \lambda_k als verschieden angenommen wurden folgt daraus dann \langle x_j, x_k \rangle = 0. Daher kann aus Eigenvektoren von A eine Orthonormalbasis des \C^n gebildet werden. Damit ist eine hermitesche Matrix sogar unitär diagonalisierbar, das heißt, es gibt eine unitäre Matrix S, mit der

S^H A S = D

gilt. Diese Darstellung bildet die Grundlage für die Hauptachsentransformation und ist die einfachste Version des Spektralsatzes.

Kenngrößen[Bearbeiten]

Aufgrund der Diagonalisierbarkeit einer hermiteschen Matrix A \in \C^{n \times n} gilt für ihre Spur

\operatorname{spur}(A) = \lambda_1 + \ldots + \lambda_n

und für ihre Determinante entsprechend

\det(A) = \lambda_1 \cdot \ldots \cdot \lambda_n.

Spur und Determinante einer hermiteschen Matrix sind demnach stets reell. Der Rang einer hermiteschen Matrix ist gleich der Anzahl der Eigenwerte ungleich Null, also mit dem Kronecker-Delta

\operatorname{rang}(A) = n - \left( \delta_{\lambda_1,0} + \ldots + \delta_{\lambda_n,0} \right).

Eine hermitesche Matrix ist genau dann invertierbar wenn keiner ihrer Eigenwerte Null ist. Die Spektralnorm einer hermiteschen Matrix ist

\| A \|_2 = \max \{ | \lambda_1 |, \ldots , | \lambda_n | \}

und damit gleich dem Spektralradius der Matrix. Die Frobeniusnorm ergibt sich aufgrund der Normalität entsprechend zu

\| A \|_F = \sqrt{ \lambda_1^2 + \ldots + \lambda_n^2}.

Abschätzungen[Bearbeiten]

Nach dem Satz von Courant-Fischer liefert der Rayleigh-Quotient Abschätzungen für den kleinsten und den größten Eigenwert einer hermiteschen Matrix A \in \C^{n \times n} der Form

\min\{ \lambda_1, \ldots , \lambda_n\} \leq \frac{\langle x, Ax \rangle}{\langle x,x \rangle} \leq \max\{ \lambda_1, \ldots , \lambda_n\}

für alle x \in \C^n mit x \neq 0. Gleichheit gilt dabei jeweils genau dann, wenn x ein Eigenvektor zum jeweiligen Eigenwert ist. Der kleinste und der größte Eigenwert einer hermiteschen Matrix kann demnach durch Minimierung beziehungsweise Maximierung des Rayleigh-Quotienten ermittelt werden. Eine weitere Möglichkeit zur Eigenwertabschätzung bieten die Gerschgorin-Kreise, die für hermitesche Matrizen die Form von Intervallen haben.

Definitheit[Bearbeiten]

Hauptartikel: Definitheit

Ist A \in \C^{n \times n} eine hermitesche Matrix, dann wird der Ausdruck

Q_A(x) = x^H A x = \langle x, Ax \rangle

mit x \in \C^n quadratische Form von A genannt. Je nachdem ob Q_A(x) größer als, größer gleich, kleiner als oder kleiner gleich null für alle x \neq 0 ist, heißt die Matrix A positiv definit, positiv semidefinit, negativ definit oder negativ semidefinit. Kann Q_A(x) sowohl positive, als auch negative Vorzeichen annehmen, so heißt A indefinit. Die Definitheit einer hermiteschen Matrix kann anhand der Vorzeichen ihrer Eigenwerte ermittelt werden. Sind alle Eigenwerte positiv, ist die Matrix positiv definit, sind sie alle negativ, ist die Matrix negativ definit und so weiter. Das Tripel bestehend aus den Anzahlen der positiven, negativen und Null-Eigenwerte einer hermiteschen Matrix wird Signatur der Matrix genannt. Nach dem Trägheitssatz von Sylvester bleibt die Signatur einer hermiteschen Matrix unter Kongruenztransformationen erhalten.

Verwendung[Bearbeiten]

Hermitesche Sesquilinearformen[Bearbeiten]

Ist V ein n-dimensionaler komplexer Vektorraum, dann lässt sich jede Sesquilinearform b \colon V \times V \to \C nach Wahl einer Basis \{ v_1, \ldots , v_n \} für V durch die Darstellungsmatrix

A_b = ( b(v_j, v_k) ) \in \C^{n \times n}

beschreiben. Ist die Sesquilinearform hermitesch, gilt also b(v,w)=\overline{b(w,v)} für alle v, w \in V, dann ist auch die Darstellungsmatrix A_b hermitesch. Umgekehrt definiert jede hermitesche Matrix A \in \C^{n \times n} mittels

b_A(x,y) = x^H A y

eine hermitesche Sesquilinearform b_A \colon \C^n \times \C^n \to \C. Ist eine hermitesche Matrix A \in \C^{n \times n} zudem positiv definit, dann stellt b_A ein Skalarprodukt im unitären Raum \C^n dar.

Selbstadjungierte Abbildungen[Bearbeiten]

Ist (V, \langle \cdot, \cdot \rangle) ein n-dimensionaler komplexer Skalarproduktraum, dann lässt sich jede lineare Abbildung f \colon V \to V nach Wahl einer Orthonormalbasis \{ e_1, \ldots , e_n \} für V durch die Abbildungsmatrix

A_f = ( a_{jk} ) \in \C^{n \times n}

darstellen, wobei f(e_k) = a_{1k}e_1 + \ldots + a_{nk}e_n für k=1, \ldots , n ist. Die Abbildungsmatrix A_f ist nun genau dann hermitesch, wenn die Abbildung f selbstadjungiert ist. Dies folgt aus

\langle f(v), w \rangle = (A_fx)^Hy = x^HA_f^Hy = x^HA_fy = x^H(A_fy) = \langle v, f(w) \rangle,

wobei v=x_1 e_1+ \ldots + x_n e_n und w=y_1 e_1 + \ldots + y_n e_n sind.

Projektionen und Spiegelungen[Bearbeiten]

Ist wieder ( V, \langle \cdot , \cdot \rangle ) ein n-dimensionaler komplexer Skalarproduktraum und ist U ein m-dimensionaler Untervektorraum von V, wobei x_1, \ldots , x_m die Koordinatenvektoren einer Orthonormalbasis für U sind, dann ist die Orthogonalprojektionsmatrix auf diesen Untervektorraum

A_U = x_1 x_1^H + \ldots + x_m x_m^H \in \C^{n \times n}

als Summe hermitescher Rang-Eins-Matrizen ebenfalls hermitesch. Auch die Orthogonalprojektionsmatrix auf den Komplementärraum U^\bot ist aufgrund der Darstellung A_{U^\bot}=I-A_U stets hermitesch. Mit Hilfe der Projektionsmatrizen A_U und A_{U^\perp} lässt sich jeder Vektor v \in V in zueinander orthogonale Vektoren u \in U und u^\perp \in U^\perp zerlegen. Auch die Spiegelungsmatrix I-2A_U an einem Untervektorraum U ist stets hermitesch.

Lineare Gleichungssysteme[Bearbeiten]

Das Auffinden der Lösung eines linearen Gleichungssystems Ax=b mit hermitescher Koeffizientenmatrix A vereinfacht sich, wenn man die Hermitizität der Koeffizientenmatrix ausnutzt. Auf Grund der Hermitizität lässt sich die Koeffizientenmatrix A als Produkt

A = LDL^H

mit einer unteren Dreiecksmatrix L mit lauter Einsen auf der Diagonale und einer Diagonalmatrix D schreiben. Diese Zerlegung wird beispielsweise bei der Cholesky-Zerlegung positiv definiter hermitescher Matrizen verwendet, um die Lösung des Gleichungssystems zu berechnen. Beispiele moderner Verfahren zur numerischen Lösung großer linearer Gleichungssysteme mit dünnbesetzter hermitescher Koeffizientenmatrix sind das CG-Verfahren und das MINRES-Verfahren.

Polarzerlegung[Bearbeiten]

Jede quadratische Matrix A \in \C^{n \times n} kann mittels der Polarzerlegung auch als Produkt

A = Q P

einer unitären Matrix Q \in \C^{n \times n} und einer positiv semidefiniten hermiteschen Matrix P \in \C^{n \times n} faktorisiert werden. Die Matrix P ergibt sich dabei als die Quadratwurzel von A^HA. Ist A regulär, so ist P positiv definit und die Polarzerlegung eindeutig mit Q = A P^{-1}.

Quantenmechanik[Bearbeiten]

Die in der Quantenmechanik verwendeten Pauli-Matrizen


\sigma_1 =
\begin{pmatrix}
0 & 1\\
1 & 0
\end{pmatrix},\quad
\sigma_2 =
\begin{pmatrix}
0 & -\mathrm{i}\\
\mathrm{i} & 0
\end{pmatrix},\quad
\sigma_3 =
\begin{pmatrix}
1 & 0\\
0 & -1
\end{pmatrix}

sind hermitesch und spurfrei. Die Pauli-Matrizen werden unter anderem zur Beschreibung von Isospin-Symmetrien verwendet. Die Gell-Mann-Matrizen sind hermitesche (3 \times 3)-Matrizen, die in der Quantenchromodynamik eingesetzt werden.

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

  • Gerd Fischer: Lineare Algebra. (Eine Einführung für Studienanfänger). 13. durchgesehene Auflage. Vieweg, Braunschweig u. a. 2002, ISBN 3-528-97217-3.
  •  Roger A. Horn, Charles R. Johnson: Matrix Analysis. Cambridge University Press, 2012, ISBN 0-521-46713-6.
  • Hans-Rudolf Schwarz, Norbert Köckler: Numerische Mathematik. 5. überarbeitete Auflage. Teubner, Stuttgart u. a. 2004, ISBN 3-519-42960-8.

Einzelnachweise[Bearbeiten]

  1.  Howard Anton, Chris Rorres: Elementary Linear Algebra: Applications Version. John Wiley & Sons, 2010, S. 404–405.

Weblinks[Bearbeiten]