„Inverse Matrix“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
[gesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
K kat
eigener Artikel
Zeile 1: Zeile 1:
Die '''inverse Matrix''', kurz '''Inverse''', einer [[Quadratische Matrix|quadratischen Matrix]] ist in der [[Mathematik]] eine ebenfalls quadratische Matrix, die mit der Ausgangsmatrix multipliziert die [[Einheitsmatrix]] ergibt. Nicht jede quadratische Matrix besitzt eine Inverse; die invertierbaren Matrizen werden [[reguläre Matrix|reguläre Matrizen]] genannt und sind dadurch charakterisiert, dass ihre [[Determinante]] ungleich null ist. Die Menge der regulären Matrizen fester Größe bildet mit der [[Matrizenmultiplikation]] als [[Verknüpfung (Mathematik)|Verknüpfung]] eine [[Gruppe (Mathematik)|Gruppe]], die [[allgemeine lineare Gruppe]]. Die inverse Matrix stellt dann das [[Inverses Element|inverse Element]] in dieser Gruppe dar. Die Inverse einer Matrix kann mit dem [[Gauß-Jordan-Algorithmus]] oder über die [[Adjunkte]] der Matrix berechnet werden.
#WEITERLEITUNG [[Reguläre Matrix]]

== Definition ==
Ist <math>A \in K^{n \times n}</math> eine [[Reguläre Matrix|reguläre]] [[quadratische Matrix]] mit Einträgen aus dem [[Körper (Algebra)|Körper]] <math>K</math>, dann ist die zugehörige inverse Matrix diejenige Matrix <math>A^{-1} \in K^{n \times n}</math>, für die

:<math>A \cdot A^{-1} = I</math>

gilt, wobei <math>\cdot</math> die [[Matrizenmultiplikation]] darstellt und <math>I</math> die [[Einheitsmatrix]] der Größe <math>n \times n</math> ist.

== Beispiel ==

Die Inverse der reellen <math>(2 \times 2)</math>-Matrix

:<math>A = \begin{pmatrix} 2 & 5 \\ 1 & 3 \end{pmatrix}</math>

ist

:<math>A^{-1} = \begin{pmatrix} 3 & -5 \\ -1 & 2 \end{pmatrix}</math>,

denn es gilt

:<math>A \cdot A^{-1} = \begin{pmatrix} 2 & 5 \\ 1 & 3 \end{pmatrix} \cdot \begin{pmatrix} 3 & -5 \\ -1 & 2 \end{pmatrix} = \begin{pmatrix} 6-5 & -10+10 \\ 3-3 & -5+6 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = I</math>.

== Eigenschaften ==

=== Gruppeneigenschaften ===

Die Menge der regulären Matrizen fester Größe bildet mit der Matrizenmultiplikation als Verknüpfung eine (im Allgemeinen [[Kommutativgesetz|nichtkommutative]]) [[Gruppe (Mathematik)|Gruppe]], die [[allgemeine lineare Gruppe]] <math>\operatorname{GL}(n,K)</math>. In dieser Gruppe ist die Einheitsmatrix das [[Neutrales Element|neutrale Element]] und die inverse Matrix das [[inverses Element|inverse Element]]. Als solches ist die Inverse einer Matrix eindeutig definiert und sowohl links-, als auch rechtsinvers, das heißt es gilt

:<math>A \cdot A^{-1} = A^{-1} \cdot A = I</math>.

Insbesondere ergibt die Inverse der Einheitsmatrix wieder die Einheitsmatrix, also

:<math>I^{-1} = I</math>.

und die Inverse der Inversen wieder die Ausgangsmatrix, das heißt

:<math>\left( A^{-1} \right)^{-1} = A</math>.

Das Produkt zweier Matrizen ist wieder invertierbar und die Inverse des Produkts ist das Produkt der jeweiligen Inversen, allerdings in umgekehrter Reihenfolge:

:<math>\left( A \cdot B \right)^{-1} = B^{-1} \cdot A^{-1}</math>.

Für die Inverse des Produkts mehrerer Matrizen gilt dann die allgemeine Produktformel

:<math>\left( A_1 \cdot A_2 \cdot \ldots \cdot A_k \right)^{-1} = A_k^{-1} \cdot \ldots \cdot A_2^{-1} \cdot A_1^{-1}</math>.

Kann eine Matrix als Produkt leicht invertierbarer Matrizen dargestellt werden, so kann die Inverse der Matrix auf diese Weise schnell ermittelt werden.

=== Weitere Eigenschaften ===

Für die Inverse des [[Skalarmultiplikation|Produkts]] einer Matrix mit einem Skalar <math>c \in K</math> mit <math>c \neq 0</math> gilt

:<math>( c A )^{-1} = c^{-1} A^{-1}</math>.

Die Inverse der transponierten Matrix ist gleich der Transponierten der Inversen, also

:<math>\left( A^T \right)^{-1} = \left( A^{-1} \right)^T</math>.

Gleiches gilt auch für die Inverse einer [[Adjungierte Matrix|adjungierten]] komplexen Matrix

:<math>\left( A^H \right)^{-1} = \left( A^{-1} \right)^H</math>.

Diese beiden Matrizen werden auch durch <math>A^{-T}</math> und <math>A^{-H}</math> notiert. Für die [[Determinante]] der Inversen gilt

:<math>\det \left( A^{-1} \right) = (\det A)^{-1}</math>.

=== Gleichungsdarstellung ===

Ausgeschrieben lautet die Matrixgleichung <math>A \cdot A^{-1} = I</math> mit <math>A = (a_{ij})</math> und <math>A^{-1} = ({\hat a}_{ij})</math>

:<math>\begin{pmatrix} a_{11} & \ldots & a_{1n} \\ \vdots & ~ & \vdots \\ a_{n1} & \ldots & a_{nn} \end{pmatrix} \cdot \begin{pmatrix} {\hat a}_{11} & \ldots & {\hat a}_{1n} \\ \vdots & ~ & \vdots \\ {\hat a}_{n1} & \ldots & {\hat a}_{nn} \end{pmatrix} = \begin{pmatrix} 1 & ~ & 0 \\ ~ & \ddots & ~ \\ 0 & ~ & 1 \end{pmatrix}</math>.

Die <math>j</math>-te Spalte der Inversen <math>{\hat a}_j = \left( {\hat a}_{1j}, {\hat a}_{2j}, \ldots, {\hat a}_{nj} \right)^T</math> ergibt sich damit als Lösung des [[Lineares Gleichungssystem|linearen Gleichungssystems]]

:<math>A \cdot {\hat a}_j = e_j</math>,

wobei <math>e_j</math> der <math>j</math>-te [[Einheitsvektor]] ist. Die Inverse einer Matrix <math>A</math> ist demnach spaltenweise in der Form

:<math>A^{-1} = \left( {\hat a}_1 ~|~ {\hat a}_2 ~|~ \ldots ~|~ {\hat a}_n \right)</math>

aus den Lösungen <math>n</math> linearer Gleichungssysteme mit jeweils <math>A</math> als Koeffizientenmatrix und einem Einheitsvektor als rechter Seite zusammengesetzt.

== Berechnung ==
=== Gauß-Jordan-Algorithmus ===
==== Verfahren ====

Die Inverse einer Matrix kann effizient mit dem [[Gauß-Jordan-Algorithmus]] berechnet werden. Die Idee bei diesem Verfahren ist es, die <math>n</math> linearen Gleichungssysteme <math>A \cdot {\hat a}_j = e_j</math> simultan zu lösen. Hierzu wird zunächst die Koeffizientenmatrix <math>A</math> um die Einheitsmatrix <math>I</math> erweitert und man schreibt dann

:<math>(\, A \,|\, I \,) = \left(\begin{array}{ccc|ccc} a_{11} & \ldots & a_{1n} \, & \, 1 & ~ & 0 \\ \vdots & ~ & \vdots \, & \, ~ & \ddots & ~ \\ a_{n1} & \ldots & a_{nn} \, & \, 0 & ~ & 1 \end{array}\right)</math>.

Nun wird mit die Matrix <math>A</math> mit Hilfe [[Elementare Zeilenumformung|elementarer Zeilenumformungen]] auf obere [[Dreiecksmatrix|Dreiecksgestalt]] gebracht, wobei die Einheitsmatrix <math>I</math> mit umgeformt wird:

:<math>(\, D \,|\, B \,) = \left(\begin{array}{ccc|ccc} * & \ldots & * \, & \, * & \ldots & * \\ ~ & \ddots & \vdots \, & \, \vdots & ~ & \vdots \\ 0 & ~ & * \, & \, * & \ldots & * \end{array}\right)</math>.

An dieser Stelle kann entschieden werden, ob die Matrix <math>A</math> überhaupt eine Inverse besitzt. Die Matrix <math>A</math> ist nämlich genau dann invertierbar, wenn die Matrix <math>D</math> keine Nullzeile enthält. Ist dies der Fall, so kann die Matrix <math>D</math> mit weiteren elementaren Zeilenumformungen zunächst auf [[Diagonalmatrix|Diagonalgestalt]] gebracht werden und dann durch entsprechende Skalierungen in die Einheitsmatrix überführt werden. Schließlich erhält man die Form

:<math>(\, I \,|\, A^{-1} \,) = \left(\begin{array}{ccc|ccc} 1 & ~ & 0 \, & \, {\hat a}_{11} & \ldots & {\hat a}_{1n} \\ ~ & \ddots & ~ \, & \, \vdots & ~ & \vdots \\ 0 & ~ & 1 \, & \, {\hat a}_{n1} & \ldots & {\hat a}_{nn} \end{array}\right)</math>,

wobei auf der rechten Seite dann die gesuchte Inverse <math>A^{-1}</math> steht. Die Korrektheit des Verfahrens folgt daraus, dass durch elementare Zeilenumformungen die [[Lösungsraum|Lösungsräume]] der <math>n</math> linearen Gleichungssysteme nicht verändert wird.

==== Beispiele ====

Als erstes Beispiel werde die Inverse der Matrix

:<math>A = \begin{pmatrix} 1 & 2 \\ 2 & 3 \end{pmatrix}</math>

gesucht. Mit dem Gauß-Jordan-Algorithmus ergibt sich die Rechnung

:<math>\left(\begin{array}{cc|cc} 1 & 2 \, & \, 1 & 0 \\ 2 & 3 \, & \, 0 & 1\end{array}\right) \rightarrow \left(\begin{array}{cc|cc} 1 & 2 \, & \, 1 & 0 \\ 0 & -1 \, & \, -2 & 1\end{array}\right) \rightarrow \left(\begin{array}{cc|cc} 1 & 0 \, & \, -3 & 2 \\ 0 & -1 \, & \, -2 & 1\end{array}\right) \rightarrow \left(\begin{array}{cc|cc} 1 & 0 \, & \, -3 & 2 \\ 0 & 1 \, & \, 2 & -1\end{array}\right)</math>

Hierbei wird zunächst die <math>2</math> unterhalb der Diagonale eliminiert, was durch Subtraktion des Doppelten der ersten Zeile von der zweiten Zeile erfolgt. Anschließend wird die <math>2</math> oberhalb der Diagonale zu null gesetzt, was durch Addition des Doppelten der zweiten Zeile zur ersten Zeile geschieht. Im letzten Schritt wird dann das zweite Diagonalelement auf eins normiert, was eine Multiplikation der zweiten Zeile mit <math>-1</math> erfordert. Die Inverse von <math>A</math> ist demnach

:<math>A^{-1} = \begin{pmatrix} -3 & 2 \\ 2 & -1 \end{pmatrix}</math>.

Als zweites Beispiel werde die Inverse der <math>(3 \times 3)</math>-Matrix

:<math>A = \begin{pmatrix} 1 & 2 & 0 \\ 2 & 4 & 1 \\ 2 & 1 & 0 \end{pmatrix}</math>.

gesucht. Zunächst werden hier die beiden Zweien in der ersten Spalte eliminert, was jeweils durch Subtraktion des Doppelten der ersten Zeile erfolgt. Nachdem das [[Pivotelement]] in der zweiten Zeile nun <math>0</math> ist, wird die zweite mit der dritten Zeile vertauscht und man erhält die obere Dreiecksform:

:<math>\left(\begin{array}{ccc|ccc} 1 & 2 & 0 \, & \, 1 & 0 & 0 \\ 2 & 4 & 1 \, & \, 0 & 1 & 0 \\ 2 & 1 & 0 \, & \, 0 & 0 & 1 \end{array}\right) \rightarrow \left(\begin{array}{ccc|ccc} 1 & 2 & 0 \, & \, 1 & 0 & 0 \\ 0 & 0 & 1 \, & \, -2 & 1 & 0 \\ 0 & -3 & 0 \, & \, -2 & 0 & 1 \end{array}\right) \rightarrow \left(\begin{array}{ccc|ccc} 1 & 2 & 0 \, & \, 1 & 0 & 0 \\ 0 & -3 & 0 \, & \, -2 & 0 & 1 \\ 0 & 0 & 1 \, & \, -2 & 1 & 0 \end{array}\right)</math>.

Auch diese Matrix ist also invertierbar. Nun muss lediglich die verbleibende <math>2</math> oberhalb der Diagonalen zu null gesetzt werden, was durch Addition des Doppelten der zweiten Zeile zum Dreifachen der ersten Zeile geschieht. Schließlich muss noch die erste Zeile durch <math>3</math> und die zweite Zeile durch <math>-3</math> dividiert werden und man erhält als Ergebnis:

:<math>\left(\begin{array}{ccc|ccc} 1 & 2 & 0 \, & \, 1 & 0 & 0 \\ 0 & -3 & 0 \, & \, -2 & 0 & 1 \\ 0 & 0 & 1 \, & \, -2 & 1 & 0 \end{array}\right) \rightarrow \left(\begin{array}{ccc|ccc} 3 & 0 & 0 \, & \, -1 & 0 & 2 \\ 0 & -3 & 0 \, & \, -2 & 0 & 1 \\ 0 & 0 & 1 \, & \, -2 & 1 & 0 \end{array}\right) \rightarrow \left(\begin{array}{ccc|ccc} 1 & 0 & 0 \, & \, -\tfrac13 & 0 & \tfrac23 \\ 0 & 1 & 0 \, & \, \tfrac23 & 0 & -\tfrac13 \\ 0 & 0 & 1 \, & \, -2 & 1 & 0 \end{array}\right)</math>.

Die Inverse von <math>A</math> ist demnach

:<math>A^{-1} = \begin{pmatrix} -\tfrac13 & 0 & \tfrac23 \\ \tfrac23 & 0 & -\tfrac13 \\ -2 & 1 & 0 \end{pmatrix} = \frac{1}{3} \begin{pmatrix} -1 & 0 & 2 \\ 2 & 0 & -1 \\ -6 & 3 & 0 \end{pmatrix}</math>.

=== Explizite Lösung ===
==== Herleitung ====

Mit Hilfe der [[Cramersche Regel|cramerschen Regel]] lässt sich die Lösung des linearen Gleichungssystems <math>A \cdot {\hat a}_j = e_j</math> auch explizit durch

:<math>{\hat a}_{ij} = \frac{\det A_{i}}{\det A}</math>

angeben, wobei die Matrix <math>A_{i}</math> durch Ersetzen der <math>i</math>-ten Spalte mit dem Einheitsvektor <math>e_j</math> entsteht. Wird nun die Determinante im Zähler mit Hilfe des [[Laplacescher Entwicklungssatz|laplaceschen Entwicklungssatzes]] nach der <math>i</math>-ten Spalte entwickelt, ergibt sich

:<math>{\hat a}_{ij} = \frac{(-1)^{i+j} \cdot \det A_{ji}}{\det A}</math>,

wobei <math>A_{ji}</math> die [[Untermatrix]] von <math>A</math> ist, die durch Streichung der <math>j</math>-ten Zeile und <math>i</math>-ten Spalte entsteht (man beachte hier die Vertauschung der Reihenfolge von <math>i</math> und <math>j</math>). Die Unterdeterminanten <math>\det A_{ij}</math> werden auch als [[Minor (Mathematik)|Minoren]] von <math>A</math> bezeichnet. Die Zahlen

:<math>{\tilde a}_{ij} = (-1)^{i+j} \cdot \det A_{ij}</math>

heißen auch Kofaktoren von <math>A</math> und bilden als Matrix zusammengefasst die Kofaktormatrix <math>\operatorname{cof} A = ( {\tilde a}_{ij} )</math>. Die [[Transponierte Matrix|Transponierte]] der Kofaktormatrix wird auch [[Adjunkte]] <math>\operatorname{adj} A</math> von <math>A</math> genannt. Mit der Adjunkten hat die Inverse einer Matrix dann die explizite Darstellung

:<math>A^{-1} = \frac{1}{\det A} \cdot \operatorname{adj} A</math>.

==== Formeln ====

Für <math>(2 \times 2)</math>-Matrizen ergibt sich damit die explizite Formel

:<math>A^{-1} = \begin{pmatrix} a & b \\ c & d \end{pmatrix}^{-1} = \frac{1}{\det(A)} \cdot \begin{pmatrix} d & -b \\ -c & a \end{pmatrix} = \frac{1}{ad-bc} \cdot \begin{pmatrix} d & -b \\ -c & a \end{pmatrix}</math>.

Für <math>(3 \times 3)</math>-Matrizen ergibt sich entsprechend die Formel

<!-- Die Formel wurde mehrfach geprüft und ist korrekt. Bitte so lassen -->
:<math>A^{-1} = \begin{pmatrix} a & b & c \\ d & e & f \\ g & h & i \end{pmatrix}^{-1} = \frac{1}{\det A} \cdot
\begin{pmatrix}
ei - fh & ch - bi & bf - ce \\
fg - di & ai - cg & cd - af \\
dh - eg & bg - ah & ae - bd
\end{pmatrix}</math>

wobei <math>\det A</math> mit der [[Regel von Sarrus]] angegeben werden kann. Auch für größere Matrizen können auf diese Weise explizite Formeln für die Inverse hergeleitet werden; ihre Darstellung und Berechnung erweist sich jedoch schnell als sehr aufwändig.

==== Beispiele ====

Die Inverse der folgenden <math>(2 \times 2)</math>-Matrix ergibt sich zu

:<math>A^{-1} = \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}^{-1} = \frac{1}{4-6} \, \begin{pmatrix} 4 & -2 \\ -3 & 1 \end{pmatrix} = \frac{1}{2} \begin{pmatrix} -4 & 2 \\ 3 & -1 \end{pmatrix}</math>

und die Inverse der folgenden <math>(3 \times 3)</math>-Matrix zu

:<math>A^{-1} = \begin{pmatrix} 2 & -1 & 0 \\ -1 & 2 & -1 \\ 0 & -1 & 2 \end{pmatrix}^{-1} = \frac{1}{8-2-2} \, \begin{pmatrix} 4-1 & 2-0 & 1-0 \\ 2-0 & 4-0 & 2-0 \\ 1-0 & 2-0 & 4-1 \end{pmatrix} = \frac{1}{4} \begin{pmatrix} 3 & 2 & 1 \\ 2 & 4 & 2 \\ 1 & 2 & 3 \end{pmatrix}</math>.

=== Numerische Berechnung ===

Generell werden in der [[Numerische Mathematik|Numerik]] lineare Gleichungssysteme der Form <math>A x = b</math> nicht über die Inverse durch

:<math>x = A^{-1} b</math>,

sondern mit dem [[Gaußsches Eliminationsverfahren|gaußschen Eliminationsverfahren]] gelöst. Der Berechnungsweg über die Inverse ist zum einen wesentlich aufwändiger und zum anderen weniger [[Stabilität (Numerik)|numerisch stabil]]. Gelegentlich kann es jedoch erforderlich sein, die Inverse einer Matrix explizit zu ermitteln. Insbesondere bei sehr großen Matrizen wird dann auf [[Näherungsverfahren]] zurückgegriffen. Ein Ansatz hierfür ist die [[Neumann-Reihe]], mit der die Inverse einer Matrix durch die unendliche [[Reihe (Mathematik)|Reihe]]

:<math>A^{-1} = \sum_{n=0}^\infty (I - A)^n</math>

dargestellt werden kann, sofern die Reihe konvergiert. Wird diese Reihe nach endlich vielen Termen abgeschnitten, erhält man eine näherungsweise Inverse. Für bestimmte Matrizen, wie [[Bandmatrix|Bandmatrizen]] oder [[Toeplitz-Matrix|Toeplitz-Matrizen]], gibt es auch spezielle Berechnungsverfahren zur Ermittlung der Inverse.

=== Blockweise Inversion ===

Die Inverse einer <math>(2 \times 2)</math>-[[Blockmatrix]] mit Blockbreiten- und -höhen <math>n_1 + n_2 = n</math> ergibt sich zu

:<math>\begin{bmatrix} A & B \\ C & D \end{bmatrix}^{-1} = \begin{bmatrix} A^{-1}+A^{-1}BS^{-1}CA^{-1} & -A^{-1}BS^{-1} \\ -S^{-1}CA^{-1} & S^{-1} \end{bmatrix}</math>,

wobei

:<math>S = D-CA^{-1}B</math>

das [[Schur-Komplement]] von <math>A</math> ist. Die Matrizen <math>A</math> und <math>S</math> müssen hierbei invertierbar sein.

== Siehe auch ==
* [[Pseudoinverse]]

== Literatur ==
* {{Literatur|Autor=Siegfried Bosch|Titel=Lineare Algebra|Verlag=Springer|Jahr=2006|ISBN=3-540-29884-3}}
* {{Literatur|Autor=Gene Golub, Charles van Loan|Titel=Matrix Computations|Auflage=3.|Verlag=Johns Hopkins University Press|Jahr=1996|ISBN=978-0-80185-414-9}}
* {{Literatur|Autor=Roger Horn, Charles R. Johnson|Titel=Matrix Analysis|Verlag=Cambridge University Press|Jahr=1990|ISBN=978-0-5213-8632-6}}
* {{Literatur|Autor=Jörg Liesen, Volker Mehrmann|Titel=Lineare Algebra|Verlag=Springer|Jahr=2012|ISBN=978-3-83488-290-5}}
* {{Literatur|Autor=Hans Rudolf Schwarz, Norbert Köckler|Titel=Numerische Mathematik|Verlag=Vieweg & Teubner|Auflage=8.|Jahr=2011|ISBN=978-3-8348-1551-4}}

== Weblinks ==
* {{EoM|Autor=|Titel=Inverse matrix|Url=http://www.encyclopediaofmath.org/index.php/Inverse_matrix}}
* {{EoM|Autor=Kh.D. Ikramov|Titel=Inversion of a matrix|Url=http://www.encyclopediaofmath.org/index.php/Inversion_of_a_matrix}}
* {{MathWorld|title=Matrix Inverse|urlname=MatrixInverse}}
* {{PlanetMath|author=akrowne|title=Matrix inverse|urlname=matrixinverse}}

[[Kategorie:Matrix]]
[[Kategorie:Matrix]]

Version vom 26. Mai 2014, 11:59 Uhr

Die inverse Matrix, kurz Inverse, einer quadratischen Matrix ist in der Mathematik eine ebenfalls quadratische Matrix, die mit der Ausgangsmatrix multipliziert die Einheitsmatrix ergibt. Nicht jede quadratische Matrix besitzt eine Inverse; die invertierbaren Matrizen werden reguläre Matrizen genannt und sind dadurch charakterisiert, dass ihre Determinante ungleich null ist. Die Menge der regulären Matrizen fester Größe bildet mit der Matrizenmultiplikation als Verknüpfung eine Gruppe, die allgemeine lineare Gruppe. Die inverse Matrix stellt dann das inverse Element in dieser Gruppe dar. Die Inverse einer Matrix kann mit dem Gauß-Jordan-Algorithmus oder über die Adjunkte der Matrix berechnet werden.

Definition

Ist eine reguläre quadratische Matrix mit Einträgen aus dem Körper , dann ist die zugehörige inverse Matrix diejenige Matrix , für die

gilt, wobei die Matrizenmultiplikation darstellt und die Einheitsmatrix der Größe ist.

Beispiel

Die Inverse der reellen -Matrix

ist

,

denn es gilt

.

Eigenschaften

Gruppeneigenschaften

Die Menge der regulären Matrizen fester Größe bildet mit der Matrizenmultiplikation als Verknüpfung eine (im Allgemeinen nichtkommutative) Gruppe, die allgemeine lineare Gruppe . In dieser Gruppe ist die Einheitsmatrix das neutrale Element und die inverse Matrix das inverse Element. Als solches ist die Inverse einer Matrix eindeutig definiert und sowohl links-, als auch rechtsinvers, das heißt es gilt

.

Insbesondere ergibt die Inverse der Einheitsmatrix wieder die Einheitsmatrix, also

.

und die Inverse der Inversen wieder die Ausgangsmatrix, das heißt

.

Das Produkt zweier Matrizen ist wieder invertierbar und die Inverse des Produkts ist das Produkt der jeweiligen Inversen, allerdings in umgekehrter Reihenfolge:

.

Für die Inverse des Produkts mehrerer Matrizen gilt dann die allgemeine Produktformel

.

Kann eine Matrix als Produkt leicht invertierbarer Matrizen dargestellt werden, so kann die Inverse der Matrix auf diese Weise schnell ermittelt werden.

Weitere Eigenschaften

Für die Inverse des Produkts einer Matrix mit einem Skalar mit gilt

.

Die Inverse der transponierten Matrix ist gleich der Transponierten der Inversen, also

.

Gleiches gilt auch für die Inverse einer adjungierten komplexen Matrix

.

Diese beiden Matrizen werden auch durch und notiert. Für die Determinante der Inversen gilt

.

Gleichungsdarstellung

Ausgeschrieben lautet die Matrixgleichung mit und

.

Die -te Spalte der Inversen ergibt sich damit als Lösung des linearen Gleichungssystems

,

wobei der -te Einheitsvektor ist. Die Inverse einer Matrix ist demnach spaltenweise in der Form

aus den Lösungen linearer Gleichungssysteme mit jeweils als Koeffizientenmatrix und einem Einheitsvektor als rechter Seite zusammengesetzt.

Berechnung

Gauß-Jordan-Algorithmus

Verfahren

Die Inverse einer Matrix kann effizient mit dem Gauß-Jordan-Algorithmus berechnet werden. Die Idee bei diesem Verfahren ist es, die linearen Gleichungssysteme simultan zu lösen. Hierzu wird zunächst die Koeffizientenmatrix um die Einheitsmatrix erweitert und man schreibt dann

.

Nun wird mit die Matrix mit Hilfe elementarer Zeilenumformungen auf obere Dreiecksgestalt gebracht, wobei die Einheitsmatrix mit umgeformt wird:

.

An dieser Stelle kann entschieden werden, ob die Matrix überhaupt eine Inverse besitzt. Die Matrix ist nämlich genau dann invertierbar, wenn die Matrix keine Nullzeile enthält. Ist dies der Fall, so kann die Matrix mit weiteren elementaren Zeilenumformungen zunächst auf Diagonalgestalt gebracht werden und dann durch entsprechende Skalierungen in die Einheitsmatrix überführt werden. Schließlich erhält man die Form

,

wobei auf der rechten Seite dann die gesuchte Inverse steht. Die Korrektheit des Verfahrens folgt daraus, dass durch elementare Zeilenumformungen die Lösungsräume der linearen Gleichungssysteme nicht verändert wird.

Beispiele

Als erstes Beispiel werde die Inverse der Matrix

gesucht. Mit dem Gauß-Jordan-Algorithmus ergibt sich die Rechnung

Hierbei wird zunächst die unterhalb der Diagonale eliminiert, was durch Subtraktion des Doppelten der ersten Zeile von der zweiten Zeile erfolgt. Anschließend wird die oberhalb der Diagonale zu null gesetzt, was durch Addition des Doppelten der zweiten Zeile zur ersten Zeile geschieht. Im letzten Schritt wird dann das zweite Diagonalelement auf eins normiert, was eine Multiplikation der zweiten Zeile mit erfordert. Die Inverse von ist demnach

.

Als zweites Beispiel werde die Inverse der -Matrix

.

gesucht. Zunächst werden hier die beiden Zweien in der ersten Spalte eliminert, was jeweils durch Subtraktion des Doppelten der ersten Zeile erfolgt. Nachdem das Pivotelement in der zweiten Zeile nun ist, wird die zweite mit der dritten Zeile vertauscht und man erhält die obere Dreiecksform:

.

Auch diese Matrix ist also invertierbar. Nun muss lediglich die verbleibende oberhalb der Diagonalen zu null gesetzt werden, was durch Addition des Doppelten der zweiten Zeile zum Dreifachen der ersten Zeile geschieht. Schließlich muss noch die erste Zeile durch und die zweite Zeile durch dividiert werden und man erhält als Ergebnis:

.

Die Inverse von ist demnach

.

Explizite Lösung

Herleitung

Mit Hilfe der cramerschen Regel lässt sich die Lösung des linearen Gleichungssystems auch explizit durch

angeben, wobei die Matrix durch Ersetzen der -ten Spalte mit dem Einheitsvektor entsteht. Wird nun die Determinante im Zähler mit Hilfe des laplaceschen Entwicklungssatzes nach der -ten Spalte entwickelt, ergibt sich

,

wobei die Untermatrix von ist, die durch Streichung der -ten Zeile und -ten Spalte entsteht (man beachte hier die Vertauschung der Reihenfolge von und ). Die Unterdeterminanten werden auch als Minoren von bezeichnet. Die Zahlen

heißen auch Kofaktoren von und bilden als Matrix zusammengefasst die Kofaktormatrix . Die Transponierte der Kofaktormatrix wird auch Adjunkte von genannt. Mit der Adjunkten hat die Inverse einer Matrix dann die explizite Darstellung

.

Formeln

Für -Matrizen ergibt sich damit die explizite Formel

.

Für -Matrizen ergibt sich entsprechend die Formel

wobei mit der Regel von Sarrus angegeben werden kann. Auch für größere Matrizen können auf diese Weise explizite Formeln für die Inverse hergeleitet werden; ihre Darstellung und Berechnung erweist sich jedoch schnell als sehr aufwändig.

Beispiele

Die Inverse der folgenden -Matrix ergibt sich zu

und die Inverse der folgenden -Matrix zu

.

Numerische Berechnung

Generell werden in der Numerik lineare Gleichungssysteme der Form nicht über die Inverse durch

,

sondern mit dem gaußschen Eliminationsverfahren gelöst. Der Berechnungsweg über die Inverse ist zum einen wesentlich aufwändiger und zum anderen weniger numerisch stabil. Gelegentlich kann es jedoch erforderlich sein, die Inverse einer Matrix explizit zu ermitteln. Insbesondere bei sehr großen Matrizen wird dann auf Näherungsverfahren zurückgegriffen. Ein Ansatz hierfür ist die Neumann-Reihe, mit der die Inverse einer Matrix durch die unendliche Reihe

dargestellt werden kann, sofern die Reihe konvergiert. Wird diese Reihe nach endlich vielen Termen abgeschnitten, erhält man eine näherungsweise Inverse. Für bestimmte Matrizen, wie Bandmatrizen oder Toeplitz-Matrizen, gibt es auch spezielle Berechnungsverfahren zur Ermittlung der Inverse.

Blockweise Inversion

Die Inverse einer -Blockmatrix mit Blockbreiten- und -höhen ergibt sich zu

,

wobei

das Schur-Komplement von ist. Die Matrizen und müssen hierbei invertierbar sein.

Siehe auch

Literatur