„Orthogonale Matrix“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
[gesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
→‎Eigenschaften: Eigenwerte in einen eigenen Abschnitt
→‎Literatur: ergänzt
Zeile 201: Zeile 201:


== Literatur ==
== Literatur ==
* [[Gerd Fischer (Mathematiker)|Gerd Fischer]]: ''Lineare Algebra. (Eine Einführung für Studienanfänger).'' 14., durchgesehene Auflage. Vieweg, Wiesbaden 2003, ISBN 3-528-03217-0.
* {{Literatur|Autor=[[Gerd Fischer (Mathematiker)|Gerd Fischer]]|Titel=Lineare Algebra. (Eine Einführung für Studienanfänger)|Auflage=14. durchgesehene|Verlag=Vieweg|Jahr=2003|ISBN=3-528-03217-0}}
* {{Literatur|Autor=Jörg Liesen, [[Volker Mehrmann]]|Titel=Lineare Algebra|Verlag=Springer|Jahr=2011|ISBN=978-3-834-88290-5}}
* {{Literatur|Autor=Hans Rudolf Schwarz, Norbert Köckler|Titel=Numerische Mathematik|Verlag=Springer|Jahr=2009|ISBN=978-3-834-80683-3}}
* {{Literatur|Autor=[[Eberhard Zeidler (Mathematiker)|Eberhard Zeidler]], [[Wolfgang Hackbusch]] (Hrsg.)|Titel=Taschenbuch der Mathematik|Band=Band 1|Verlag=Springer|Jahr=2012|ISBN=978-3-835-10123-4}}


== Weblinks ==
== Weblinks ==

Version vom 29. März 2014, 22:50 Uhr

Eine orthogonale Matrix ist in der linearen Algebra eine quadratische, reelle Matrix, deren Zeilen- und Spaltenvektoren paarweise orthonormal zueinander sind. Damit ist die Inverse einer orthogonalen Matrix gleichzeitig ihre Transponierte. Die Menge der orthogonalen Matrizen fester Größe bildet mit der Matrizenmultiplikation als Verknüpfung die orthogonale Gruppe. Orthogonale Matrizen stellen Kongruenzabbildungen im euklidischen Raum, also Drehungen, Spiegelungen und Drehspiegelungen, dar. Sie werden beispielsweise bei der numerischen Lösung linearer Gleichungssysteme oder Eigenwertprobleme eingesetzt. Der analoge Begriff bei komplexen Matrizen ist die unitäre Matrix.

Definition

Eine reelle quadratische Matrix heißt orthogonal, wenn das Produkt mit ihrer transponierten Matrix die Einheitsmatrix ergibt, also

gilt. Werden die Zeilenvektoren der Matrix mit bezeichnet, dann ist diese Bedingung gleichbedeutend damit, dass das Standardskalarprodukt zweier Zeilenvektoren

ergibt, wobei das Kronecker-Delta ist. Die Zeilenvektoren einer orthogonalen Matrix bilden damit eine Orthonormalbasis des Koordinatenraums . Dies trifft auch für die Spaltenvektoren einer orthogonalen Matrix zu, denn ist aufgrund von

ebenfalls orthogonal. Auch wenn die Bezeichnung „orthogonale Matrix“ so verstanden werden könnte, reicht es nicht aus, wenn die Zeilen- oder Spaltenvektoren lediglich paarweise orthogonal sind; sie müssen zusätzlich normiert sein, also die Länge eins aufweisen.

Beispiele

Konkrete Beispiele

  • Die Matrix
ist orthogonal, denn es gilt
.
  • Auch die Matrix
ist orthogonal, denn es gilt
.

Allgemeine Beispiele

  • Permutationsmatrizen, also Matrizen, bei denen genau ein Eintrag pro Zeile und Spalte gleich ist und alle anderen Einträge gleich sind, sind orthogonal. Bezeichnet die zu einer Permutation zugehörige Permutationsmatrix, dann gilt
,
denn die transponierte Permutationsmatrix ist gleich der Permutationsmatrix der inversen Permutation, die alle Vertauschungen rückgängig macht, und das Produkt von Permutationsmatrizen entspricht der Hintereinanderausführung der Permutationen.
die Drehmatrix einer Drehung um einen Winkel , die den Ursprung festlässt, dann gilt mit dem trigonometrischen Pythagoras
.
Allgemeiner sind auch Drehmatrizen, die eine Drehung in einer beliebigen Ursprungsebene im -dimensionalen Raum beschreiben, orthogonal.
die Spiegelungsmatrix einer Spiegelung an einer Ursprungsgerade mit Einheits-Normalenvektor , dann gilt
,
denn Spiegelungsmatrizen sind nach Definition symmetrisch und für einen Einheitsvektor gilt . Allgemeiner sind auch Spiegelungsmatrizen an einer beliebigen linearen Mannigfaltigkeit im -dimensionalen Raum, beispielsweise einer Hyperebene, die durch den Ursprung verläuft, orthogonal.

Eigenschaften

Inverse

Eine orthogonale Matrix ist immer invertierbar und ihre Inverse ist gleich ihrer Transponierten, das heißt

.

Die Inverse einer Matrix ist nämlich gerade diejenige Matrix, die mit der Ausgangsmatrix multipliziert die Einheitsmatrix ergibt. Es gilt auch die Umkehrung und jede Matrix , deren Transponierte gleich ihrer Inversen ist, ist orthogonal, denn es gilt dann

.

Längen- und Winkeltreue

Wird eine orthogonale Matrix mit einem Vektor multipliziert, ändert sich die Länge (euklidische Norm) des Vektors nicht, das heißt

.

Weiter ist Standardskalarprodukt zweier Vektoren invariant bezüglich der Multiplikation mit einer orthogonalen Matrix , also

.

Beide Eigenschaften folgen dabei direkt aus der Verschiebungseigenschaft des Standardskalarprodukts. Aufgrund dieser Längen- und Winkeltreue stellt die lineare Abbildung

eine Kongruenzabbildung im euklidischen Raum dar. Umgekehrt ist die Abbildungsmatrix jeder längen- oder winkeltreuen linearen Abbildung zwischen zwei endlichdimensionalen reellen Vektorräumen orthogonal, denn es gilt

,

wobei der -te Standardbasisvektor ist.

Determinante

Für den Betrag der Determinante einer orthogonalen Matrix gilt

,

was mit Hilfe des Determinantenproduktsatzes über

folgt. Damit kann die Determinante einer orthogonalen Matrix nur die Werte eins oder minus eins annehmen. Es gibt allerdings auch nicht orthogonale Matrizen, deren Determinante plus oder minus eins ist, zum Beispiel unimodulare Matrizen. Orthogonale Matrizen, deren Determinante eins ist, entsprechen Drehungen, während orthogonale Matrizen, deren Determinante minus eins ist, Drehspiegelungen darstellen.

Eigenwerte

Die Eigenwerte einer orthogonalen Matrix sind nicht notwendigerweise alle reell. Sie haben jedoch den komplexen Betrag eins, sind also von der Form

mit . Ist nämlich ein zu gehöriger Eigenvektor, dann gilt aufgrund der Längentreue und der absoluten Homogenität einer Norm

und daher . Eine orthogonale Matrix besitzt demnach höchstens die reellen Eigenwerte . Die komplexen Eigenwerte treten immer paarweise komplex konjugiert auf, das heißt mit ist auch ein Eigenwert.

Diagonalisierbarkeit

Eine orthogonale Matrix ist normal, das heißt es gilt

,

und damit über den komplexen Zahlen unitär diagonalisierbar. Nach dem Spektralsatz gibt es nämlich eine unitäre Matrix , sodass

gilt, wobei eine Diagonalmatrix mit den Eigenwerten von ist. Im Allgemeinen ist eine orthogonale Matrix jedoch nicht reell diagonalisierbar. Es existiert allerdings eine orthogonale Matrix , sodass

eine Blockdiagonalmatrix ergibt, bei der die einzelnen Blöcke entweder Drehmatrizen der Größe sind oder aus der Zahl oder bestehen.

Normen

Die Spektralnorm einer orthogonalen Matrix ist

.

Für die Frobeniusnorm gilt mit dem Frobenius-Skalarprodukt entsprechend

.

Das Produkt mit einer orthogonalen Matrix erhält sowohl die Spektralnorm, als auch die Frobeniusnorm einer gegebenen Matrix , denn es gilt

und

.

Damit bleibt auch die Kondition einer Matrix bezüglich dieser Normen nach Multiplikation mit einer orthogonalen Matrix erhalten.

Orthogonale Matrizen als Gruppe

Das Produkt zweier orthogonaler Matrizen ist wieder orthogonal, denn es gilt

.

Weiter ist die Inverse einer orthogonalen Matrix ebenfalls orthogonal, denn es gilt

.

Die orthogonalen Matrizen fester Größe bilden daher mit der Matrizenmultiplikation als Verknüpfung eine Gruppe, die orthogonale Gruppe . Dabei handelt es sich um eine Untergruppe der allgemeinen linearen Gruppe . Die orthogonalen Matrizen mit Determinante eins, also die Drehmatrizen, bilden wiederum eine Untergruppe der orthogonalen Gruppe, die Drehgruppe (oder spezielle orthogonale Gruppe) . Die orthogonalen Matrizen mit Determinante minus eins, also die Drehspiegelungen, bilden keine Untergruppe der orthogonalen Gruppe, denn ihnen fehlt ein neutrales Element, sondern lediglich eine Nebenklasse.

Verwendung

Lineare Gleichungssysteme

Die Lösung linearer Gleichungssysteme der Form

mit einer orthogonalen Matrix und einer rechten Seite lässt sich numerisch effizient durch

berechnen. Die Ermittlung der Lösung erfordert also lediglich eine Matrix-Vektor-Multiplikation, die mit einem Aufwand der Ordnung durchgeführt werden kann. Im Vergleich dazu benötigt die Lösung allgemeiner linearer Gleichungssysteme beispielsweise mit Hilfe der Gauß-Elimination einen Aufwand . Dieser Vorteil wird beispielsweise bei der (reellen) diskreten Fourier-Transformation und der diskreten Kosinus-Transformation genutzt.

Matrixzerlegungen

Eine weitere Anwendung orthogonaler Matrizen ist die QR-Zerlegung einer gegebenen Matrix als Produkt

einer orthogonalen Matrix und einer oberen Dreiecksmatrix . Die Konstruktion der Matrix kann dabei mit Givens-Rotationen, die Drehungen entsprechen, oder Householdertransformationen, die Spiegelungen entsprechen, durchgeführt werden. QR-Zerlegungen werden in der Numerik bei der Lösung schlecht konditionierter, überbestimmter oder unterbestimmter linearer Gleichungssysteme eingesetzt. Ein weiteres Anwendungsfeld besteht in der Berechnung von Eigenwertproblemen mit dem QR-Algorithmus.

Mit Hilfe der Singulärwertzerlegung lässt sich jede reelle Matrix auch als Produkt

einer orthogonalen Matrix , einer Diagonalmatrix und der Transponierten einer weiteren orthogonalen Matrix darstellen. Die Diagonaleinträge der Matrix sind dann die Singulärwerte von . Die Singulärwertzerlegung wird beispielsweise in der Geometrie bei der Hauptachsentransformation von Quadriken und in der Statistik bei der Hauptkomponentenanalyse multivariater Datensätze eingesetzt.

Siehe auch

Literatur

Weblinks