Hermitesche Matrix

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Eine hermitesche Matrix ist in der Mathematik eine komplexe quadratische Matrix, die gleich ihrer adjungierten Matrix ist. Die Einträge einer hermiteschen Matrix oberhalb der Hauptdiagonale ergeben sich demnach durch Spiegelung der Einträge unterhalb der Diagonale und nachfolgender komplexer Konjugation; die Einträge auf der Hauptdiagonale selbst sind alle reell. Hermitesche Matrizen sind nach dem Mathematiker Charles Hermite benannt.

Hermitesche Matrizen weisen eine Reihe besonderer Eigenschaften auf. Die Summe zweier hermitescher Matrizen ist stets wieder hermitesch. Jede komplexe quadratische Matrix lässt sich eindeutig als Summe einer hermiteschen und einer schiefhermiteschen Matrix schreiben. Das Produkt zweier hermitescher Matrizen ist wiederum hermitesch, sofern die beiden Matrizen kommutieren. Eine hermitesche Matrix ist stets normal und selbstadjungiert, sie besitzt nur reelle Eigenwerte und sie ist stets unitär diagonalisierbar. Eine wichtige Klasse hermitescher Matrizen sind positiv definite Matrizen, bei denen alle Eigenwerte positiv sind. Eine hermitesche Matrix mit reellen Einträgen ist symmetrisch.

In der linearen Algebra werden hermitesche Matrizen zur Beschreibung hermitescher Sesquilinearformen verwendet. Die Darstellungsmatrix einer komplexen selbstadjungierten Abbildung bezüglich einer Orthonormalbasis ist ebenfalls stets hermitesch. Lineare Gleichungssysteme mit hermitescher Koeffizientenmatrix lassen sich effizient und numerisch stabil lösen. Weiterhin werden hermitesche Matrizen bei Orthogonalprojektionen und bei der Polarzerlegung von Matrizen verwendet. Hermitesche Matrizen besitzen Anwendungen unter anderem in der Quantenmechanik.

Definition[Bearbeiten | Quelltext bearbeiten]

Eine komplexe quadratische Matrix heißt hermitesch, wenn für ihre Einträge

für gilt. Eine hermitesche Matrix stimmt daher mit ihrer adjungierten Matrix überein, das heißt, es gilt

.

Äquivalent dazu ist eine Matrix genau dann hermitesch, wenn ihre transponierte Matrix gleich ihrer konjugierten Matrix ist, also

gilt. Eine hermitesche Matrix ist also bis auf komplexe Konjugation aller Einträge spiegelsymmetrisch bezüglich ihrer Hauptdiagonale.

Beispiele[Bearbeiten | Quelltext bearbeiten]

Beispiele für hermitesche Matrizen sind ( stellt die imaginäre Einheit dar):

.

Allgemein haben hermitesche Matrizen der Größe , und die Struktur

mit reellen Zahlen auf der Hauptdiagonale.

Algebraische Eigenschaften[Bearbeiten | Quelltext bearbeiten]

Einträge[Bearbeiten | Quelltext bearbeiten]

Die Diagonaleinträge einer hermiteschen Matrix sind aufgrund von

stets reell. Die Matrix aus den Realteilen einer hermiteschen Matrix ist stets symmetrisch, denn

,

und die Matrix aus den Imaginärteilen einer hermiteschen Matrix stets schiefsymmetrisch, denn

.

Daher wird eine hermitesche Matrix durch

reelle Zahlen eindeutig charakterisiert. Im Vergleich dazu wird eine allgemeine komplexe -Matrix durch reelle Zahlen beschrieben, also gerade doppelt so viele.

Summe[Bearbeiten | Quelltext bearbeiten]

Die Summe zweier hermitescher Matrizen ist stets wieder hermitesch, denn

.

Zudem lässt sich jede komplexe quadratische Matrix eindeutig als Summe einer hermiteschen Matrix und einer schiefhermiteschen Matrix schreiben, indem

  und  

gewählt werden.

Skalarmultiplikation[Bearbeiten | Quelltext bearbeiten]

Das Produkt einer hermiteschen Matrix mit einem Skalar ist nur wieder hermitesch, wenn reell ist, denn dann gilt

.

Wenn rein imaginär ist, dann ist das Produkt schiefhermitesch. Die hermiteschen Matrizen bilden demnach keinen Untervektorraum im -Vektorraum der komplexen quadratischen Matrizen, sondern lediglich einen Untervektorraum im -Vektorraum der komplexen quadratischen Matrizen. Dieser Untervektorraum hat die Dimension , wobei die Standardmatrizen , , und , , darin eine Basis bilden. Im Raum der hermiteschen Matrizen bilden wiederum die reellen symmetrischen Matrizen einen Untervektorraum.

Produkt[Bearbeiten | Quelltext bearbeiten]

Das Produkt zweier hermitescher Matrizen ist im Allgemeinen nicht wieder hermitesch. Das Produkt hermitescher Matrizen ist genau dann hermitesch, wenn und kommutieren, also wenn gilt, denn dann ergibt sich

.

Insbesondere sind damit für eine hermitesche Matrix auch alle ihre Potenzen mit und daher auch ihr Matrixexponential wieder hermitesch. Für eine beliebige komplexe Matrix sind sowohl die -Matrix als auch die -Matrix stets hermitesch.

Normalität[Bearbeiten | Quelltext bearbeiten]

Eine hermitesche Matrix ist stets normal, denn es gilt

.

Jede hermitesche Matrix kommutiert also mit ihrer Adjungierten. Es gibt allerdings auch normale Matrizen, die nicht hermitesch sind, beispielsweise schiefhermitesche Matrizen.

Kongruenz[Bearbeiten | Quelltext bearbeiten]

Jede komplexe Matrix , die kongruent zu einer hermiteschen Matrix ist, ist ebenfalls hermitesch, denn es gilt

,

wobei die zugehörige Transformationsmatrix ist. Matrizen, die ähnlich zu einer hermiteschen Matrix sind, müssen jedoch nicht notwendigerweise ebenfalls hermitesch sein.

Inverse[Bearbeiten | Quelltext bearbeiten]

Ist eine hermitesche Matrix invertierbar, dann ist auch ihre Inverse wieder hermitesch, denn es gilt

.

Für eine reguläre hermitesche Matrix sind demnach auch alle Potenzen mit wieder hermitesch.

Spektrale Eigenschaften[Bearbeiten | Quelltext bearbeiten]

Selbstadjungiertheit[Bearbeiten | Quelltext bearbeiten]

Eine hermitesche Matrix ist stets selbstadjungiert, denn es gilt mit dem komplexen Standardskalarprodukt

für alle Vektoren . Es gilt auch die Umkehrung und jede komplexe selbstadjungierte Matrix ist hermitesch.

Eigenwerte[Bearbeiten | Quelltext bearbeiten]

Die Eigenwerte einer hermiteschen Matrix , das heißt die Lösungen der Eigenwertgleichung , sind stets reell. Ist nämlich ein komplexer Eigenwert von mit zugehörigem Eigenvektor , , dann gilt mit der Selbstadjungiertheit von

.

Nachdem für ist, muss gelten und der Eigenwert damit reell sein.

Vielfachheiten[Bearbeiten | Quelltext bearbeiten]

Bei jeder hermiteschen Matrix stimmen die algebraischen und die geometrischen Vielfachheiten aller Eigenwerte überein. Ist nämlich ein Eigenwert von mit geometrischer Vielfachheit , dann existiert eine Orthonormalbasis des Eigenraums von , welche durch zu einer Orthonormalbasis des Gesamtraums ergänzt werden kann. Mit der unitären Basistransformationsmatrix ergibt sich damit die transformierte Matrix

als Blockdiagonalmatrix mit den Blöcken und . Für die Einträge von mit gilt nämlich mit der Selbstadjungiertheit von und der Orthonormalität der Basisvektoren

,

wobei das Kronecker-Delta darstellt. Da nach Voraussetzung keine Eigenvektoren zum Eigenwert von sind, kann kein Eigenwert von sein. Die Matrix besitzt daher nach der Determinantenformel für Blockmatrizen den Eigenwert genau mit algebraischer Vielfachheit und aufgrund der Ähnlichkeit der beiden Matrizen damit auch .[1]

Diagonalisierbarkeit[Bearbeiten | Quelltext bearbeiten]

Nachdem bei einer hermiteschen Matrix algebraische und geometrische Vielfachheiten aller Eigenwerte übereinstimmen und da Eigenvektoren zu verschiedenen Eigenwerten stets linear unabhängig sind, kann aus Eigenvektoren von eine Basis des gebildet werden. Daher ist eine hermitesche Matrix stets diagonalisierbar, das heißt, es gibt eine reguläre Matrix und eine Diagonalmatrix (sogar ), sodass

gilt. Die Matrix hat dabei die Eigenvektoren als Spalten und die Matrix hat die zu diesen Eigenvektoren jeweils zugehörigen Eigenwerte auf der Diagonale. Durch eine Permutation der Eigenvektoren kann dabei die Reihenfolge der Diagonaleinträge von beliebig gewählt werden. Daher sind zwei hermitesche Matrizen genau dann zueinander ähnlich, wenn sie die gleichen Eigenwerte besitzen. Weiterhin sind zwei hermitesche Matrizen genau dann simultan diagonalisierbar, wenn sie kommutieren.

Unitäre Diagonalisierbarkeit[Bearbeiten | Quelltext bearbeiten]

Die Eigenvektoren zu zwei verschiedenen Eigenwerten einer hermiteschen Matrix sind stets orthogonal. Es gilt nämlich wiederum mit der Selbstadjungiertheit von

.

Da und als verschieden angenommen wurden folgt daraus dann . Daher kann aus Eigenvektoren von eine Orthonormalbasis des gebildet werden. Damit ist eine hermitesche Matrix sogar unitär diagonalisierbar, das heißt, es gibt eine unitäre Matrix , mit der

gilt. Diese Darstellung bildet die Grundlage für die Hauptachsentransformation und ist die einfachste Version des Spektralsatzes.

Kenngrößen[Bearbeiten | Quelltext bearbeiten]

Aufgrund der Diagonalisierbarkeit einer hermiteschen Matrix gilt für ihre Spur

und für ihre Determinante entsprechend

.

Spur und Determinante einer hermiteschen Matrix sind demnach stets reell. Der Rang einer hermiteschen Matrix ist gleich der Anzahl der Eigenwerte ungleich Null, also mit dem Kronecker-Delta

.

Eine hermitesche Matrix ist genau dann invertierbar wenn keiner ihrer Eigenwerte Null ist. Die Spektralnorm einer hermiteschen Matrix ist

und damit gleich dem Spektralradius der Matrix. Die Frobeniusnorm ergibt sich aufgrund der Normalität entsprechend zu

.

Abschätzungen[Bearbeiten | Quelltext bearbeiten]

Nach dem Satz von Courant-Fischer liefert der Rayleigh-Quotient Abschätzungen für den kleinsten und den größten Eigenwert einer hermiteschen Matrix der Form

für alle mit . Gleichheit gilt dabei jeweils genau dann, wenn ein Eigenvektor zum jeweiligen Eigenwert ist. Der kleinste und der größte Eigenwert einer hermiteschen Matrix kann demnach durch Minimierung beziehungsweise Maximierung des Rayleigh-Quotienten ermittelt werden. Eine weitere Möglichkeit zur Eigenwertabschätzung bieten die Gerschgorin-Kreise, die für hermitesche Matrizen die Form von Intervallen haben.

Definitheit[Bearbeiten | Quelltext bearbeiten]

Hauptartikel: Definitheit

Ist eine hermitesche Matrix, dann wird der Ausdruck

mit quadratische Form von genannt. Je nachdem ob größer als, größer gleich, kleiner als oder kleiner gleich null für alle ist, heißt die Matrix positiv definit, positiv semidefinit, negativ definit oder negativ semidefinit. Kann sowohl positive, als auch negative Vorzeichen annehmen, so heißt indefinit. Die Definitheit einer hermiteschen Matrix kann anhand der Vorzeichen ihrer Eigenwerte ermittelt werden. Sind alle Eigenwerte positiv, ist die Matrix positiv definit, sind sie alle negativ, ist die Matrix negativ definit und so weiter. Das Tripel bestehend aus den Anzahlen der positiven, negativen und Null-Eigenwerte einer hermiteschen Matrix wird Signatur der Matrix genannt. Nach dem Trägheitssatz von Sylvester bleibt die Signatur einer hermiteschen Matrix unter Kongruenztransformationen erhalten.

Verwendung[Bearbeiten | Quelltext bearbeiten]

Hermitesche Sesquilinearformen[Bearbeiten | Quelltext bearbeiten]

Ist ein -dimensionaler komplexer Vektorraum, dann lässt sich jede Sesquilinearform nach Wahl einer Basis für durch die Darstellungsmatrix

beschreiben. Ist die Sesquilinearform hermitesch, gilt also für alle , dann ist auch die Darstellungsmatrix hermitesch. Umgekehrt definiert jede hermitesche Matrix mittels

eine hermitesche Sesquilinearform . Ist eine hermitesche Matrix zudem positiv definit, dann stellt ein Skalarprodukt im unitären Raum dar.

Selbstadjungierte Abbildungen[Bearbeiten | Quelltext bearbeiten]

Ist ein -dimensionaler komplexer Skalarproduktraum, dann lässt sich jede lineare Abbildung nach Wahl einer Orthonormalbasis für durch die Abbildungsmatrix

darstellen, wobei für ist. Die Abbildungsmatrix ist nun genau dann hermitesch, wenn die Abbildung selbstadjungiert ist. Dies folgt aus

,

wobei und sind.

Projektionen und Spiegelungen[Bearbeiten | Quelltext bearbeiten]

Ist wieder ein -dimensionaler komplexer Skalarproduktraum und ist ein -dimensionaler Untervektorraum von , wobei die Koordinatenvektoren einer Orthonormalbasis für sind, dann ist die Orthogonalprojektionsmatrix auf diesen Untervektorraum

als Summe hermitescher Rang-Eins-Matrizen ebenfalls hermitesch. Auch die Orthogonalprojektionsmatrix auf den Komplementärraum ist aufgrund der Darstellung stets hermitesch. Mit Hilfe der Projektionsmatrizen und lässt sich jeder Vektor in zueinander orthogonale Vektoren und zerlegen. Auch die Spiegelungsmatrix an einem Untervektorraum ist stets hermitesch.

Lineare Gleichungssysteme[Bearbeiten | Quelltext bearbeiten]

Das Auffinden der Lösung eines linearen Gleichungssystems mit hermitescher Koeffizientenmatrix vereinfacht sich, wenn man die Hermitizität der Koeffizientenmatrix ausnutzt. Auf Grund der Hermitizität lässt sich die Koeffizientenmatrix als Produkt

mit einer unteren Dreiecksmatrix mit lauter Einsen auf der Diagonale und einer Diagonalmatrix schreiben. Diese Zerlegung wird beispielsweise bei der Cholesky-Zerlegung positiv definiter hermitescher Matrizen verwendet, um die Lösung des Gleichungssystems zu berechnen. Beispiele moderner Verfahren zur numerischen Lösung großer linearer Gleichungssysteme mit dünnbesetzter hermitescher Koeffizientenmatrix sind das CG-Verfahren und das MINRES-Verfahren.

Polarzerlegung[Bearbeiten | Quelltext bearbeiten]

Jede quadratische Matrix kann mittels der Polarzerlegung auch als Produkt

einer unitären Matrix und einer positiv semidefiniten hermiteschen Matrix faktorisiert werden. Die Matrix ergibt sich dabei als die Quadratwurzel von . Ist regulär, so ist positiv definit und die Polarzerlegung eindeutig mit .

Quantenmechanik[Bearbeiten | Quelltext bearbeiten]

Die in der Quantenmechanik verwendeten Pauli-Matrizen

sind hermitesch und spurfrei. Die Pauli-Matrizen werden unter anderem zur Beschreibung von Isospin-Symmetrien verwendet. Die Gell-Mann-Matrizen sind hermitesche -Matrizen, die in der Quantenchromodynamik eingesetzt werden.

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Gerd Fischer: Lineare Algebra. (Eine Einführung für Studienanfänger). 13. durchgesehene Auflage. Vieweg, Braunschweig u. a. 2002, ISBN 3-528-97217-3.
  • Roger A. Horn, Charles R. Johnson: Matrix Analysis. Cambridge University Press, 2012, ISBN 0-521-46713-6.
  • Hans-Rudolf Schwarz, Norbert Köckler: Numerische Mathematik. 5. überarbeitete Auflage. Teubner, Stuttgart u. a. 2004, ISBN 3-519-42960-8.

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Howard Anton, Chris Rorres: Elementary Linear Algebra: Applications Version. John Wiley & Sons, 2010, S. 404–405.

Weblinks[Bearbeiten | Quelltext bearbeiten]