Matrixexponential

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

In der Mathematik ist das Matrixexponential eine Funktion auf der Menge der quadratischen Matrizen, welche analog zur reellen Exponentialfunktion definiert ist. Das Matrixexponential stellt die Verbindung zwischen Liealgebra und der zugehörigen Liegruppe her.

Definition[Bearbeiten]

Sei X eine reelle oder komplexe (n \times n)-Matrix. Das Exponential von X, welches mit e^X oder \exp(X) bezeichnet wird, ist die (n \times n)-Matrix, welche durch die folgende Potenzreihe definiert ist.

e^X = \sum_{k=0}^\infty\frac{X^k}{k!}.

Diese Reihe konvergiert immer. Daher ist das Exponential von X wohldefiniert. Wenn X eine (1 \times 1)-Matrix ist, entspricht das Matrixexponential von X der gewöhnlichen Exponentialfunktion. Eine Verallgemeinerung, welche auch für unendliche Matrizen sinnvoll ist, ist die Exponentialfunktion auf beliebigen Banachalgebren.

Eigenschaften[Bearbeiten]

Das Matrixexponential teilt eine Reihe der Eigenschaften der gewöhnlichen Exponentialfunktion. Beispielsweise ist das Exponential der (n \times n)-Nullmatrix 0 gleich der (n \times n)-Einheitsmatrix E:

e^0 = E.

Für beliebige komplexe (n \times n)-Matrizen X und beliebige komplexe Zahlen a und b gilt

e^{aX} \cdot e^{bX} = e^{(a+b)X}.

Daraus folgt

e^{X} \cdot e^{-X} = e^{(1 - 1)X} = e^0 = E,

das heißt

\left(e^X\right)^{-1} = e^{-X}.

Dabei bezeichnet \left(e^X\right)^{-1} die zu e^X inverse Matrix.

Die Exponentialfunktion erfüllt e^{x+y}=e^x\,e^y für alle Zahlen x und y. Dasselbe gilt für kommutierende Matrizen X und Y, das heißt aus

X \cdot Y = Y \cdot X

folgt

e^{X+Y} = e^X \cdot e^Y.

Für nichtkommutierende Matrizen stimmt diese Gleichung im Allgemeinen nicht. In diesem Fall kann man e^{X+Y} mit Hilfe der Baker-Campbell-Hausdorff-Formel berechnen.

Das Exponential der zu X transponierten Matrix ist gleich der Transposition des Exponentials von X:

\exp\left(X^\mathrm{T}\right) = \left(\exp X\right)^\mathrm{T}

Daraus folgt, dass die Matrixexponentialfunktion symmetrische Matrizen auf symmetrische Matrizen und schiefsymmetrische Matrizen auf orthogonale Matrizen abbildet. Analog gilt zwischen Adjunktion und Transposition die Beziehung

\exp\left(X^*\right) = \left(\exp X \right)^*,

so dass die Matrixexponentialfunktion hermitesche Matrizen auf hermitesche Matrizen und schiefhermitesche Matrizen auf unitäre Matrizen abbildet.

Weiterhin gilt:

  • Wenn Y invertierbar ist, dann ist e^{YXY^{-1}} = Ye^XY^{-1}.
  • \det(e^X) = e^{\mbox{tr}(X)}, Hier bezeichnet \mbox{tr}(X) die Spur der quadratischen Matrix X.
  • e^{\operatorname{diag}(x_{1},\ldots,x_{n})}=\operatorname{diag}\left(e^{x_{1}},\ldots,e^{x_{n}}\right).

Die Exponentialabbildung[Bearbeiten]

Das Exponential einer Matrix ist immer eine invertierbare Matrix. Die Inverse von e^X ist durch e^{-X} gegeben. Das (komplexe) Matrixexponential liefert somit eine Abbildung

\exp \colon M_n(\mathbb C) \to \mbox{GL}(n,\mathbb C)

aus dem Vektorraum aller (komplexen) (n \times n)-Matrizen in die allgemeine lineare Gruppe, die Gruppe aller (komplexen) invertierbaren Matrizen. Diese Abbildung ist surjektiv, das heißt jede (reelle oder komplexe) invertierbare Matrix kann als die Exponentialmatrix einer komplexen(!) Matrix geschrieben werden. Urbilder (bzw. lokale Schnitte) lassen sich durch Matrixlogarithmen berechnen.

Für je zwei Matrizen X und Y gilt

 \| e^{X+Y} - e^X \| \le \|Y\| e^{\|X\|} e^{\|Y\|},

wobei \| \cdot \| eine beliebige Matrixnorm bezeichnet. Daraus folgt, dass die Exponentialabbildung stetig und auf kompakten Teilmengen von M_n(\mathbb C) sogar lipschitzstetig ist. Für die Norm des Matrixexponentials selbst gibt es aber eine präzisere Schranke

\|e^X\|\le e^{\mu(X)}

mit der logarithmischen Matrixnorm \mu(A) und dem numerischen Wertebereich.

Die Zuordnung

t \mapsto e^{tX}, \qquad t \in \mathbb R,

definiert eine glatte Kurve in der allgemeinen linearen Gruppe, welche für t = 0 die Einheitsmatrix liefert. Dies liefert eine Einparameter-Untergruppe der allgemeinen linearen Gruppe, da

e^{tX}e^{sX} = e^{(t+s)X}

gilt. Die Ableitung dieser Funktion am Punkt t ist durch

\frac{d}{dt}e^{tX} = Xe^{tX} \qquad (1)

gegeben. Die Ableitung für t = 0 ist gerade die Matrix X, das heißt X erzeugt diese Einparameter-Untergruppe.

Allgemeiner gilt:

\frac{d}{dt}e^{X(t)} = \int_0^1 e^{(1-\alpha) X(t)} \frac{dX(t)}{dt} e^{\alpha X(t)}d\alpha

Beispiele von Liealgebren und zugehörigen Lie-Gruppen[Bearbeiten]

Lie-Gruppe Beispiel
Allgemeine lineare Gruppe:  \mathrm{GL}  (n,K)
Orthogonale Gruppe:  \mathrm{O}  (n,K)
Unitäre Gruppe:  \mathrm{U}  (n)
Spezielle unitäre Gruppe:  \mathrm{SU}  (n) \mathfrak{su}(2)=\{X \in M_2(\mathbb C) \vert X^*=-X, \operatorname{tr}(X)=0 \} wird von \exp surjektiv auf \mathrm{SU}(2)=\{A \in M_2(\mathbb C) \vert A^*=A^{-1}, \det(A)=1 \} abgebildet.
Spezielle orthogonale Gruppe:  \mathrm{SO}  (n,K) \mathfrak{o}(n,\mathbb R)=\{X \in M_n(\mathbb R) \vert X^T=-X \} (schiefsymmetrische Matrizen) wird von \exp surjektiv auf \mathrm{SO}(n,\mathbb R)=\{A \in M_n(\mathbb R) \vert A^T=A^{-1}, \det(A)=1 \} abgebildet.
Spezielle lineare Gruppe:  \mathrm{SL}  (n,K) \mathfrak{sl}(2,\mathbb C) wird von \exp nicht surjektiv auf  \mathrm{SL}(2,\mathbb C) abgebildet. Notorisches Gegenbeispiel \begin{pmatrix} -1 & a \\ 0 & -1 \end{pmatrix} \in \mathrm{SL}(2,\mathbb C) mit a \ne 0 liegt nicht im Bild von \mathfrak{sl}(2,\mathbb C).

Aus dem letzten Beispiel ist ersichtlich, dass die Exponentialabbildung für die Erzeugung von Liegruppen (je nach Liealgebra) im Allgemeinen nicht surjektiv ist.

Lineare Differentialgleichungen[Bearbeiten]

Einer der Vorzüge des Matrixexponentials ist, dass man es benutzen kann, um Systeme von linearen gewöhnlichen Differentialgleichungen zu lösen. Aus Gleichung (1) unten folgt zum Beispiel, dass die Lösung des Anfangswertproblems

 \frac{d}{dt} y(t) = Ay(t), \quad y(0) = y_0,

wobei A eine Matrix ist, durch

 y(t) = e^{At} y_0

gegeben ist. Das Matrixexponential kann auch zur Lösung der inhomogenen Gleichung

 \frac{d}{dt} y(t) = Ay(t) + z(t), \quad y(0) = y_0,

verwendet werden. Beispiele findet man unten im Kapitel Anwendungen.

Für Differentialgleichungen der Form

 \frac{d}{dt} y(t) = A(t) \, y(t), \quad y(0) = y_0

mit nicht-konstantem A gibt es keine geschlossenen Lösungen. Die Magnus-Reihe liefert jedoch eine Lösung als unendliche Summe.

Berechnung des Matrixexponentials[Bearbeiten]

Diagonalisierbare Matrizen[Bearbeiten]

Ist die Matrix A eine Diagonalmatrix

A=\begin{pmatrix} a_1 & 0 & \ldots & 0 \\
0 & a_2 & \ldots & 0  \\ 
\vdots & \vdots & \ddots & \vdots \\
0 & 0 & \ldots & a_n \end{pmatrix},

dann kann man ihr Exponential ermitteln, indem man die übliche Exponentialfunktion auf jeden Eintrag der Hauptdiagonalen anwendet:

e^A=\begin{pmatrix} e^{a_1} & 0 & \ldots & 0 \\ 
0 & e^{a_2} & \ldots & 0  \\
 \vdots & \vdots & \ddots & \vdots \\ 
0 & 0 & \ldots & e^{a_n} \end{pmatrix}.

Damit kann man auch das Exponential diagonalisierbarer Matrizen berechnen. Wenn

A = UDU^{-1}

mit einer Diagonalmatrix D und einer Basiswechselmatrix U ist, dann gilt:

 e^A = Ue^DU^{-1}.

Nilpotenter Fall[Bearbeiten]

Eine Matrix N ist nilpotent, wenn N^q = 0 für eine geeignete natürliche Zahl q gilt. In diesem Fall kann das Matrixexponential e^N direkt aus der Reihenentwicklung berechnet werden, da die Reihe nach einer endlichen Anzahl von Termen abbricht:

e^N = E + N + \frac{1}{2}N^2 + \frac{1}{6}N^3 + \cdots + \frac{1}{(q-1)!}N^{q-1}.

Allgemeiner Fall[Bearbeiten]

Zerfällt das Minimalpolynom (bzw. das charakteristische Polynom) der Matrix X in Linearfaktoren (über \C ist das stets der Fall), dann kann X eindeutig in eine Summe

X = A + N

zerlegt werden, wobei

  • A diagonalisierbar ist,
  • N nilpotent ist und
  • A mit N kommutiert (d.h. AN = NA).

Damit kann man das Exponential von X berechnen, indem man es auf die vorgenannten Fälle reduziert: e^X = e^{A+N} = e^A e^N. Im letzten Schritt benötigt man die Kommutativität von A und N.

Eine andere (nah verwandte) Methode ist die Verwendung der Jordanschen Normalform von X. Sei J die Jordansche Normalform von X mit der Übergangsmatrix P, das heißt, es gilt

e^{X}=Pe^{J}P^{-1}.

Wegen

J=J_{a_1}(\lambda_1)\oplus J_{a_2}(\lambda_2)\oplus\cdots\oplus J_{a_n}(\lambda_n)

gilt

\begin{align}
e^{J}
& = \exp \big( J_{a_1}(\lambda_1)\oplus J_{a_2}(\lambda_2)\oplus\cdots\oplus J_{a_n}(\lambda_n) \big) \\
& = \exp \big( J_{a_1}(\lambda_1) \big) \oplus \exp \big( J_{a_2}(\lambda_2) \big) \oplus\cdots\oplus \exp \big( J_{a_k}(\lambda_k) \big)
\end{align}

Daher muss man nur das Exponential eines Jordan-Blocks kennen. Nun ist jeder Jordan-Block von der Form

J_{a}(\lambda) = \lambda I + N

wobei N eine spezielle nilpotente Matrix ist. Das Exponential des Jordan-Blocks ist also

e^{\lambda I + N} = e^{\lambda}e^N.

Beispiel[Bearbeiten]

Man betrachte die Matrix

B=\begin{pmatrix}
21 & 17 & 6 \\
-5 & -1 & -6 \\
4 & 4 & 16 \end{pmatrix},

welche die Jordansche Normalform

J = P^{-1}BP = \begin{pmatrix}
4 & 0 & 0 \\
0 & 16 & 1 \\
0 & 0 & 16 \end{pmatrix}

mit der Übergangsmatrix

P=\begin{pmatrix}
-1 & 1 & \tfrac{5}{8} \\
1 & -1 & -\tfrac{1}{4} \\
0 & 2 & 0 \end{pmatrix}

hat. Dann gilt

J=J_1(4)\oplus J_2(16)

und

e^B = P e^{J} P^{-1} = P (e^{J_2(16)} \oplus e^{J_1(4)} ) P^{-1}.

Somit ist

 \exp \left[ 16 E+\begin{pmatrix} 0 & 1 \\ 
0 & 0 \end{pmatrix} \right] = e^{16}\left[\begin{pmatrix} 1 & 0 \\ 
0 & 1 \end{pmatrix} + \begin{pmatrix} 0 & 1 \\ 
0 & 0 \end{pmatrix} + {1 \over 2!}\begin{pmatrix} 0 & 0 \\ 
0 & 0 \end{pmatrix}+\cdots\right]=\begin{pmatrix} e^{16} & e^{16} \\ 
0 & e^{16} \end{pmatrix}.

Das Exponential einer 1×1-Matrix ist trivial. Mit e^{J_1(4)} = e^4 folgt

 
\begin{align}
\exp(B) 
& = P \exp(J) P^{-1} 
= P \begin{pmatrix} e^4 & 0 & 0 \\ 0 & e^{16} & e^{16} \\ 0 & 0 & e^{16}  \end{pmatrix} P^{-1} \\[6pt]
& = {1\over 4} \begin{pmatrix}
   13e^{16} - e^4 & 13e^{16} - 5e^4 & 2e^{16} - 2e^4 \\
   -9e^{16} + e^4 & -9e^{16} + 5e^4 & -2e^{16} + 2e^4 \\
   16e^{16}       & 16e^{16}        & 4e^{16} 
\end{pmatrix}.
\end{align}

Die Jordansche Normalform und daraus das Exponential zu berechnen, ist auf diesem Weg sehr mühsam. Meist reicht es, die Wirkung der Exponential-Matrix auf einige Vektoren zu berechnen.

Numerische Verfahren[Bearbeiten]

Die Jordan-Normalform-Zerlegung ist numerisch instabil, da aufgrund der Gleitkommaarithmetik Rundungsfehler in die Eigenwerte eingeführt werden, die eine Gruppierung der Eigenwerte in Gruppen identischer Eigenwerte unmöglich macht. Daher werden in der Numerik andere Techniken zur Berechnung des Matrixexponentials verwendet. Einer der effektivsten verfügbaren Algorithmen ist die Padé-Approximation mit Skalieren und Quadrieren. Bei großen Matrizen kann der Rechenaufwand zusätzlich reduziert werden, indem Krylowräume verwendet werden, deren Basisvektoren mit dem Arnoldi-Verfahren orthogonalisiert worden sind.

Anwendungen[Bearbeiten]

Lineare Differentialgleichungen[Bearbeiten]

Das Matrixexponential kann für die Lösung eines Systems von Differentialgleichungen verwendet werden. Eine Differentialgleichung der Form

y' = C y

hat die Lösung e^{Ct}. Wenn man den Vektor

 \mathbf{y}(t) = \begin{pmatrix} y_1(t) \\ \vdots \\ y_n(t) \end{pmatrix}

betrachtet, dann kann man ein System von gekoppelten linearen Differentialgleichungen betrachten als

 \mathbf{y}'(t) = A\mathbf{y}(t)+\mathbf{b}.

Wenn man den Integrationsfaktor e^{-tA} ansetzt und auf beiden Seiten multipliziert, erhält man

e^{-tA}\mathbf{y}'(t)-e^{-tA}A\mathbf{y} = e^{-tA}\mathbf{b},
D (e^{-tA}\mathbf{y}) = e^{-tA}\mathbf{b}.

Wenn man e^{tA} berechnet, erhält man eine Lösung des Differentialgleichungssystems.

Beispiel (homogen)[Bearbeiten]

Gegeben sei das folgende Differentialgleichungssystem

\begin{align}
y_1' &= 3y_1 - y_2, \\
y_2' &=  y_1 + y_2. \end{align}

Es lässt sich schreiben als y'(t) = A y(t) mit der Koeffizientenmatrix

A=\begin{pmatrix}
3 & -1 \\
1 &  1 \end{pmatrix}.

Damit ergibt sich das zugehörige Matrixexponential zu

e^{tA}= e^{2t} \begin{pmatrix} 
1+t & -t \\
t & 1-t\end{pmatrix}.

Als allgemeine Lösung des Differentialgleichungssystems erhält man somit

\begin{pmatrix} y_1(t) \\ y_2(t) \end{pmatrix} = C_1 e^{2t} \begin{pmatrix} 1+t \\ t \end{pmatrix}+C_2 e^{2t} \begin{pmatrix} -t\\ 1-t \end{pmatrix}.

Inhomogener Fall - Variation der Konstanten[Bearbeiten]

Für den inhomogenen Fall kann man eine Methode ähnlich der Variation der Konstanten benutzen. Es wird eine Lösung der Form \mathbf{y}_p(t) = e^{tA}\mathbf{z}(t) gesucht:

\mathbf{y}_p' = (e^{tA})'\mathbf{z}(t)+e^{tA}\mathbf{z}'(t) = Ae^{tA}\mathbf{z}(t)+e^{tA}\mathbf{z}'(t) = A\mathbf{y}_p(t)+e^{tA}\mathbf{z}'(t)

Um die Lösung \mathbf{y}_p zu ermitteln, setzt man

e^{tA}\mathbf{z}'(t) = \mathbf{b}(t)
\mathbf{z}'(t) = (e^{tA})^{-1}\mathbf{b}(t)
\mathbf{z}(t) = \int_0^t e^{-uA}\mathbf{b}(u)\,du+\mathbf{c}

Damit ergibt sich

\mathbf{y}_p = e^{tA}\int_0^t e^{-uA}\mathbf{b}(u)\,du+e^{tA}\mathbf{c} = \int_0^t e^{(t-u)A}\mathbf{b}(u)\,du+e^{tA}\mathbf{c},

wobei c durch die Anfangsbedingungen bestimmt wird.

Beispiel (inhomogen)[Bearbeiten]

Gegeben sei das Differentialgleichungssystem

\begin{align}
y_1' &= 3y_1 - y_2 - 2e^t, \\
y_2' &=  y_1 + y_2 - e^t. \end{align}

Mit der Matrix A von oben schreibt sich das System

y'(t) = Ay(t) + b(t)

mit

b(t)=e^{t}\begin{pmatrix}-2 \\ -1\end{pmatrix}.

Die allgemeine Lösung der homogenen Gleichung wurde bereits oben berechnet. Die Summe aus homogenen und speziellen Lösungen ergibt die Lösung für das inhomogene Problem. Man muss jetzt nur noch eine spezielle Lösung y_p(t) finden (über die Variation der Konstanten). Von der Gleichung oben erhält man:

y_p(t) = e^{tA}\int_0^t e^{-u A} b(u) \,du,

also

y_p(t) = e^{2t} \begin{pmatrix} 
1+t & -t \\
t & 1-t\end{pmatrix} \int_0^t
e^{-2u} \begin{pmatrix} 
1-u & u \\
-u & 1+u\end{pmatrix}
\begin{pmatrix}
-2 e^u \\
- e^u \end{pmatrix}\,du =
\begin{pmatrix}
-e^{2t}(1+t) + e^t \\
-t e^{2t}\end{pmatrix}.

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

  • Roger A. Horn and Charles R. Johnson. Topics in Matrix Analysis. Cambridge University Press, 1991. ISBN 0-521-46713-6 (englisch).
  • V.I. Arnolʹd. Gewöhnliche Differentialgleichungen. Springer-Verlag, Berlin-New York, 1980. 275 pp. ISBN 3-540-09216-1