Orthogonale Matrix

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Orthogonal transformation qtl1.svg Orthogonal transformation qtl2.svg
Durch Multiplikation mit einer orthogonalen Matrix Q können Vektoren gedreht (links) oder gespiegelt (rechts) werden. Die Länge der Vektoren und der Winkel zwischen den Vektoren bleibt dabei erhalten.

Eine orthogonale Matrix ist in der linearen Algebra eine quadratische, reelle Matrix, deren Zeilen- und Spaltenvektoren paarweise orthonormal bezüglich des Standardskalarprodukts sind. Damit ist die Inverse einer orthogonalen Matrix gleichzeitig ihre Transponierte.

Orthogonale Matrizen stellen Kongruenzabbildungen im euklidischen Raum, also Drehungen, Spiegelungen und Kombinationen daraus, dar. Jede orthogonale Abbildung zwischen zwei endlichdimensionalen Skalarprodukträumen kann nach Wahl je einer Orthonormalbasis durch eine orthogonale Matrix dargestellt werden. Die Menge der orthogonalen Matrizen fester Größe bildet mit der Matrizenmultiplikation als Verknüpfung die orthogonale Gruppe.

Orthogonale Matrizen werden beispielsweise bei der numerischen Lösung linearer Gleichungssysteme oder Eigenwertprobleme eingesetzt. Der analoge Begriff bei komplexen Matrizen ist die unitäre Matrix.

Definition[Bearbeiten]

Eine reelle quadratische Matrix Q \in \R^{n \times n} heißt orthogonal, wenn das Produkt mit ihrer transponierten Matrix Q^T die Einheitsmatrix I ergibt, also

Q \cdot Q^T = I

gilt. Werden die Zeilenvektoren der Matrix Q mit q_1, \ldots , q_n bezeichnet, dann ist diese Bedingung gleichbedeutend damit, dass das Standardskalarprodukt zweier Zeilenvektoren

q_i \cdot q_j^T = \delta_{ij} = \begin{cases} 1 & \text{falls}~i=j \\ 0 & \text{sonst} \end{cases}

ergibt, wobei \delta_{ij} das Kronecker-Delta ist. Die Zeilenvektoren einer orthogonalen Matrix bilden damit eine Orthonormalbasis des Koordinatenraums \R^n. Dies trifft auch für die Spaltenvektoren einer orthogonalen Matrix zu, denn mit Q ist auch Q^T orthogonal, das heißt

Q^T \cdot Q = I.

Auch wenn die Bezeichnung „orthogonale Matrix“ so verstanden werden könnte, reicht es nicht aus, wenn die Zeilen- oder Spaltenvektoren lediglich paarweise orthogonal sind; sie müssen zusätzlich normiert sein, also die Länge eins aufweisen.

Beispiele[Bearbeiten]

Konkrete Beispiele[Bearbeiten]

  • Die Matrix
Q = \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}
ist orthogonal, denn es gilt
Q \, Q^T = \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} \cdot \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} = \begin{pmatrix} 0 \cdot 0 + 1 \cdot 1 & 0 \cdot 1 + 1 \cdot 0 \\ 1 \cdot 0 + 0 \cdot 1 & 1 \cdot 1 + 0 \cdot 0 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = I.
  • Auch die Matrix
Q = \frac{1}{5} \begin{pmatrix} 3 & -4 \\ 4 & 3 \end{pmatrix}
ist orthogonal, denn es gilt
Q \, Q^T = \frac{1}{5} \begin{pmatrix} 3 & -4 \\ 4 & 3 \end{pmatrix} \cdot \frac{1}{5} \begin{pmatrix} 3 & 4 \\ -4 & 3 \end{pmatrix} = \frac{1}{25} \begin{pmatrix} 9 + 16 & 12 - 12 \\ 12 - 12 & 16 + 9 \end{pmatrix} = \frac{1}{25} \begin{pmatrix} 25 & 0 \\ 0 & 25 \end{pmatrix} = I.

Allgemeine Beispiele[Bearbeiten]

  • Permutationsmatrizen, also Matrizen, bei denen genau ein Eintrag pro Zeile und Spalte gleich 1 ist und alle anderen Einträge gleich 0 sind, sind orthogonal. Bezeichnet P_\pi die zu einer Permutation \pi zugehörige Permutationsmatrix, dann gilt
P_\pi \, P^T_\pi = P_\pi \, P_{\pi^{-1}} = P_{\pi \circ \pi^{-1}} = P_{\mathrm{id}} = I,
denn die transponierte Permutationsmatrix ist gleich der Permutationsmatrix der inversen Permutation, die alle Vertauschungen rückgängig macht, und das Produkt von Permutationsmatrizen entspricht der Hintereinanderausführung der Permutationen.
R_\alpha = \begin{pmatrix} \cos\alpha & -\sin\alpha \\ \sin\alpha & \cos\alpha \end{pmatrix}
die Drehmatrix einer Drehung um einen Winkel \alpha, die den Ursprung festlässt, dann gilt mit dem „trigonometrischen Pythagoras
R_\alpha \, R_\alpha^T = \begin{pmatrix} \cos^2\alpha + \sin^2\alpha & \cos\alpha \sin\alpha - \sin\alpha \cos\alpha \\ \sin\alpha \cos\alpha - \cos\alpha \sin\alpha  & \sin^2\alpha + \cos^2\alpha \end{pmatrix} = I.
Allgemeiner sind auch Drehmatrizen, die eine Drehung in einer beliebigen Ursprungsebene im n-dimensionalen Raum beschreiben, orthogonal.
S_n = I - 2 n n^T
die Spiegelungsmatrix einer Spiegelung an einer Ursprungsgerade mit Einheits-Normalenvektor n, dann gilt
S_n \, S_n^T = S_n \, S_n = (I - 2 n n^T) \, (I - 2 n n^T) = I - 4 n n^T + 4 n (n^T n) n^T = I,
denn Spiegelungsmatrizen sind nach Definition symmetrisch und für einen Einheitsvektor gilt n^T n = 1. Allgemeiner sind auch Matrizen, die Spiegelungen an einem beliebigen Untervektorraum im n-dimensionalen Raum (beispielsweise einer Hyperebene) beschreiben, orthogonal.

Eigenschaften[Bearbeiten]

Inverse[Bearbeiten]

Eine orthogonale Matrix Q \in \R^{n \times n} ist immer invertierbar und ihre Inverse ist gleich ihrer Transponierten, das heißt

Q^T = Q^{-1}.

Die Inverse einer Matrix Q ist nämlich gerade diejenige Matrix Q^{-1}, für die

Q \, Q^{-1} = Q^{-1} \, Q = I

gilt. Aus der zweiten Gleichung folgt weiterhin, dass die Transponierte einer orthogonalen Matrix orthogonal ist. Es gilt auch die Umkehrung und jede Matrix Q, deren Transponierte gleich ihrer Inversen ist, ist orthogonal, denn es gilt dann

Q \, Q^T = Q \, Q^{-1} = I.

Längen- und Winkeltreue[Bearbeiten]

Wird eine orthogonale Matrix Q \in \R^{n \times n} mit einem Vektor x \in \R^n multipliziert, ändert sich die Länge (euklidische Norm) des Vektors nicht, das heißt

 \| Q \, x \|_2 = \| x \|_2.

Weiter ist das Standardskalarprodukt zweier Vektoren x,y \in \R^n invariant bezüglich der Multiplikation mit einer orthogonalen Matrix Q, also

\left\langle Q \, x, Q \, y \right\rangle = \left\langle x,y \right\rangle.

Beide Eigenschaften folgen dabei direkt aus der Verschiebungseigenschaft des Standardskalarprodukts. Aufgrund dieser Längen- und Winkeltreue stellt die lineare Abbildung

f \colon \R^n \to \R^n, x \mapsto Q \, x

eine Kongruenzabbildung im euklidischen Raum dar. Umgekehrt ist die Abbildungsmatrix jeder winkeltreuen linearen Abbildung zwischen zwei endlichdimensionalen reellen Vektorräumen orthogonal, denn es gilt

\left\langle q_i,q_j \right\rangle = \left\langle Q \, e_i, Q \, e_j \right\rangle = \left\langle e_i,e_j \right\rangle = \delta_{ij},

wobei e_i der i-te Standardbasisvektor ist. Eine solche lineare Abbildung wird entsprechend orthogonale Abbildung genannt. Aufgrund der Polarisationsformel ist auch jede längentreue Abbildung winkeltreu und damit orthogonal.

Determinante[Bearbeiten]

Für den Betrag der Determinante einer orthogonalen Matrix Q \in \R^{n \times n} gilt

| \det Q | = 1,

was mit Hilfe des Determinantenproduktsatzes über

\operatorname{det}^2 Q = \det Q \cdot \det Q = \det Q \cdot \det Q^T = \det (Q Q^T) = \det I = 1

folgt. Damit kann die Determinante einer orthogonalen Matrix nur die Werte eins oder minus eins annehmen. Es gibt allerdings auch nicht orthogonale Matrizen, deren Determinante plus oder minus eins ist, zum Beispiel unimodulare Matrizen. Orthogonale Matrizen, deren Determinante eins ist, entsprechen Drehungen, während orthogonale Matrizen, deren Determinante minus eins ist, Drehspiegelungen darstellen.

Eigenwerte[Bearbeiten]

Die Eigenwerte einer orthogonalen Matrix Q \in \R^{n \times n} sind nicht notwendigerweise alle reell. Sie haben jedoch den komplexen Betrag eins, sind also von der Form

\lambda = e^{it}

mit t \in \R. Ist nämlich x ein zu \lambda gehöriger Eigenvektor, dann gilt aufgrund der Längentreue und der absoluten Homogenität einer Norm

\| x \|_2 = \| Q \, x \|_2 = \| \lambda \, x \|_2 = | \lambda | \, \| x \|_2

und daher | \lambda | = 1. Eine orthogonale Matrix besitzt demnach höchstens die reellen Eigenwerte \pm 1. Die komplexen Eigenwerte treten immer paarweise komplex konjugiert auf, das heißt mit \lambda = e^{it} ist auch \bar\lambda = e^{-it} ein Eigenwert, denn

Q \bar{x} = \overline{Q x} = \overline{\lambda x} = \bar{\lambda} \bar{x}.

Demnach besitzt eine orthogonale Matrix ungerader Dimension n mindestens einen reellen Eigenwert (siehe auch den Satz vom Fußball).

Diagonalisierbarkeit[Bearbeiten]

Eine orthogonale Matrix Q \in \R^{n \times n} ist normal, das heißt es gilt

Q \, Q^T = Q^T \, Q,

und damit über den komplexen Zahlen unitär diagonalisierbar. Nach dem Spektralsatz gibt es nämlich eine unitäre Matrix U \in \C^{n \times n}, sodass

U^{-1} \, Q \, U = D

gilt, wobei D \in \C^{n \times n} eine Diagonalmatrix mit den Eigenwerten von Q ist. Die Spaltenvektoren von U sind dann paarweise orthonormale Eigenvektoren von Q. Damit sind auch die Eigenräume einer orthogonalen Matrix paarweise orthogonal.

Im Allgemeinen ist eine orthogonale Matrix Q \in \R^{n \times n} jedoch nicht reell diagonalisierbar. Es existiert allerdings eine orthogonale Matrix V \in \R^{n \times n}, sodass

V^{-1} \, Q \, V = \begin{pmatrix} D_1 & & 0 \\ & \ddots & \\ 0 & & D_s \end{pmatrix}

eine Blockdiagonalmatrix ergibt, bei der die einzelnen Blöcke entweder Drehmatrizen der Größe 2 \times 2 sind oder aus der Zahl +1 oder -1 bestehen. Diese Darstellung wird auch Normalform einer orthogonalen Matrix genannt.

Normen[Bearbeiten]

Die Spektralnorm einer orthogonalen Matrix Q \in \R^{n \times n} ist

\| Q \|_2 = \max_{\| x \|_2 = 1} \| Q \, x \|_2 = \max_{\| x \|_2 = 1} \| x \|_2 = 1.

Für die Frobeniusnorm gilt mit dem Frobenius-Skalarprodukt entsprechend

\| Q \|_F = \sqrt{ \langle Q, Q \rangle_F } = \sqrt{ \langle I, I \rangle_F } = \sqrt{n}.

Das Produkt mit einer orthogonalen Matrix erhält sowohl die Spektralnorm, als auch die Frobeniusnorm einer gegebenen Matrix A \in \R^{n \times n}, denn es gilt

\| Q \, A \|_2 = \max_{\| x \|_2 = 1} \| Q \, A \, x \|_2 = \max_{\| x \|_2 = 1} \| A \, x \|_2  = \| A \|_2

und

\| Q \, A \|_F = \sqrt{ \langle Q \, A, Q \, A \rangle_F } = \sqrt{ \langle A, A \rangle_F } = \| A \|_F.

Damit bleibt auch die Kondition einer Matrix bezüglich dieser Normen nach Multiplikation mit einer orthogonalen Matrix erhalten.

Orthogonale Matrizen als Gruppe[Bearbeiten]

Hauptartikel: Orthogonale Gruppe

Die Menge der regulären Matrizen fester Größe bildet mit der Matrizenmultiplikation als Verknüpfung eine Gruppe, die allgemeine lineare Gruppe \mathrm{GL}(n,\R). Als neutrales Element dient dabei die Einheitsmatrix I. Die orthogonalen Matrizen bilden eine Untergruppe der allgemeinen linearen Gruppe, die orthogonale Gruppe \mathrm O(n). Das Produkt zweier orthogonaler Matrizen P, Q \in \R^{n \times n} ist nämlich wieder orthogonal, denn es gilt

(P \, Q) \, (P \, Q)^T = P \, (Q \, Q^T) \, P^T = P \, P^T = I.

Weiter ist die Inverse einer orthogonalen Matrix Q \in \R^{n \times n} ebenfalls orthogonal, denn es gilt

Q^{-1} \, Q^{-T} = Q^T \, Q^{-T} = (Q^{-1} \, Q)^T = I^T = I.

Die orthogonalen Matrizen mit Determinante eins, also die Drehmatrizen, bilden wiederum eine Untergruppe der orthogonalen Gruppe, die Drehgruppe (oder spezielle orthogonale Gruppe) \mathrm{SO}(n). Die orthogonalen Matrizen mit Determinante minus eins, also die Drehspiegelungen, bilden keine Untergruppe der orthogonalen Gruppe, denn ihnen fehlt das neutrale Element, sondern lediglich eine Nebenklasse.

Verwendung[Bearbeiten]

Lineare Gleichungssysteme[Bearbeiten]

Die Lösung linearer Gleichungssysteme der Form

Q \, x = b

mit einer orthogonalen Matrix Q \in \R^{n \times n} und einer rechten Seite b \in \R^n lässt sich numerisch effizient durch

x = Q^T \, b

berechnen. Die Ermittlung der Lösung x \in \R^n erfordert also lediglich eine Matrix-Vektor-Multiplikation, die mit einem Aufwand der Ordnung O(n^2) durchgeführt werden kann. Im Vergleich dazu benötigt die Lösung allgemeiner linearer Gleichungssysteme beispielsweise mit Hilfe der Gauß-Elimination einen Aufwand O(n^3). Dieser Vorteil wird beispielsweise bei der (reellen) diskreten Fourier-Transformation und der diskreten Kosinus-Transformation genutzt.

Matrixzerlegungen[Bearbeiten]

Eine weitere Anwendung orthogonaler Matrizen ist die QR-Zerlegung einer gegebenen Matrix A \in \R^{m \times n} als Produkt

A = Q \, R

einer orthogonalen Matrix Q \in \R^{m \times m} und einer oberen Dreiecksmatrix R \in \R^{m \times n}. Die Konstruktion der Matrix Q kann dabei mit Givens-Rotationen, die Drehungen entsprechen, oder Householdertransformationen, die Spiegelungen entsprechen, durchgeführt werden. QR-Zerlegungen werden in der Numerik bei der Lösung schlecht konditionierter, überbestimmter oder unterbestimmter linearer Gleichungssysteme eingesetzt. Ein weiteres Anwendungsfeld besteht in der Berechnung von Eigenwertproblemen mit dem QR-Algorithmus.

Mit Hilfe der Singulärwertzerlegung lässt sich jede reelle Matrix A \in \R^{m \times n} auch als Produkt

A = U \, \Sigma \, V^T

einer orthogonalen Matrix U \in \R^{m \times m}, einer Diagonalmatrix \Sigma \in \R^{m \times n} und der Transponierten einer weiteren orthogonalen Matrix V \in \R^{n \times n} darstellen. Die Diagonaleinträge der Matrix \Sigma sind dann die Singulärwerte von A. Die Singulärwertzerlegung wird beispielsweise in der Geometrie bei der Hauptachsentransformation von Quadriken und in der Statistik bei der Hauptkomponentenanalyse multivariater Datensätze eingesetzt.

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

Weblinks[Bearbeiten]