Reguläre Matrix

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Die reguläre, invertierbare oder nichtsinguläre Matrix ist ein Begriff aus dem mathematischen Teilgebiet der linearen Algebra. Eine quadratische Matrix A ist invertierbar, wenn eine weitere Matrix B existiert, sodass

A \cdot B = E

gilt, wobei E die Einheitsmatrix bezeichnet. In diesem Fall gilt auch

B \cdot A = E.

Die Matrix B ist hierbei eindeutig bestimmt und heißt inverse Matrix zu A oder einfach kurz Inverse. Man schreibt üblicherweise
A^{-1} für die inverse Matrix zu A.

Invertierbare Matrizen zeichnen sich dadurch aus, dass die durch sie beschriebene lineare Abbildung bijektiv ist. Dies führt dazu, dass ein lineares Gleichungssystem mit einer invertierbaren Koeffizientenmatrix eindeutig lösbar ist.

Nicht zu jeder quadratischen Matrix existiert eine Inverse. Eine Matrix, die keine Inverse besitzt, wird singuläre Matrix genannt. Die Menge aller invertierbaren n\times n–Matrizen über einem Grundkörper (oder Grundring) K bildet eine Gruppe bezüglich der Matrizenmultiplikation, die allgemeine lineare Gruppe \mathrm{GL}_n(K).

Eine Verallgemeinerung der inversen Matrix auf singuläre und nichtquadratische Matrizen wird durch den Begriff der Pseudoinversen ermöglicht.

Mathematische Definition[Bearbeiten]

Invertierbare Matrizen über einem unitären kommutativen Ring[Bearbeiten]

Es sei R ein kommutativer Ring mit Einselement, und A sei eine n\times n-Matrix mit Einträgen aus R.

Die Matrix A ist genau dann invertierbar, wenn eine der folgenden äquivalenten Bedingungen erfüllt ist:

Invertierbare Matrizen über einem Körper[Bearbeiten]

Es sei K ein Körper (zum Beispiel \mathbb R oder \mathbb C) und A sei eine n\times n-Matrix mit Einträgen aus dem Körper K. Da jeder Körper ein Ring ist, sind alle obigen Aussagen auch hier gültig, lassen sich jedoch vielmals einfacher ausdrücken und zusätzlich noch zu äquivalenten Aussagen umformen.

Dann ist A genau dann invertierbar, wenn eine der folgenden äquivalenten Bedingungen erfüllt ist:

  • Es gibt eine Matrix B mit AB=E_n=BA (wobei E_n die Einheitsmatrix ist).
  • Die Determinante von A ist ungleich Null.
  • 0 ist kein Eigenwert von A.
  • Für alle b\in K^n existiert mindestens eine Lösung x\in K^n des linearen Gleichungssystems Ax=b.
  • Für alle b\in K^n existiert höchstens eine Lösung x\in K^n des linearen Gleichungssystems Ax=b.
  • Das lineare Gleichungssystem Ax=0 besitzt nur die triviale Lösung x=0
  • Die Zeilenvektoren sind linear unabhängig.
  • Die Zeilenvektoren erzeugen K^n.
  • Die Spaltenvektoren sind linear unabhängig.
  • Die Spaltenvektoren erzeugen K^n.
  • Die durch A beschriebene lineare Abbildung K^n\to K^n, x\mapsto Ax, ist injektiv.
  • Die durch A beschriebene lineare Abbildung K^n\to K^n, x\mapsto Ax, ist surjektiv.
  • Die transponierte Matrix A^T ist invertierbar.
  • Der Rang der Matrix A ist gleich n.

Berechnung der Inversen einer Matrix[Bearbeiten]

Zur Berechnung der Inversen stehen zwei Möglichkeiten zur Verfügung: der Gauß-Jordan-Algorithmus und die Adjunkte. Insbesondere mittels der Adjunkte lassen sich prinzipiell Formeln für Matrizen mit festgelegtem Rang herleiten. Diese sind jedoch zu umfangreich, um effizient eingesetzt werden zu können, so dass nur für 2x2- und 3x3-Matrizen gelegentlich die unten aufgeführten Formeln verwendet werden. In praktischen Anwendungen wird so weit möglich auf die Berechnung der inversen Matrix verzichtet und stattdessen ein lineares Gleichungssystem gelöst.

Um die numerische Qualität von Algorithmen zur Invertierung von Matrizen zu testen, verwendet man die Hilbert-Matrix, da diese vergleichsweise schlecht konditioniert ist.

Gauß-Jordan-Algorithmus[Bearbeiten]

Die Inverse einer Matrix kann aus der Formel A \cdot A^{-1} = E berechnet werden. Dazu bildet man die Matrix (A | E) und wendet auf diese den Gauß-Jordan-Algorithmus an. Nach Durchführung des Algorithmus hat man eine Blockmatrix (E  | A^{-1}), aus der man A^{-1} direkt ablesen kann.

Beispiel:

Gesucht ist die Inverse zur Matrix

A = \begin{pmatrix}
    1 & 2 & 0\\
    2 & 3 & 0\\
    3 & 4 & 1\end{pmatrix}.

Die Blockmatrix (A | E) lautet


  \left(\begin{array}{ccc|ccc}
    1 & 2 & 0 &  1 & 0 & 0 \\
    2 & 3 & 0 &  0 & 1 & 0 \\
    3 & 4 & 1 &  0 & 0 & 1
  \end{array}\right)
.

Die Anwendung des Gauß-Jordan-Algorithmus führt zur Matrix


  \left(\begin{array}{ccc|ccc}
    1 & 0 & 0  & -3 & 2 & 0 \\
    0 & 1 & 0  & 2 & -1 & 0 \\
    0 & 0 & 1  & 1 & -2 & 1
  \end{array}\right)
.

Daraus lässt sich die inverse Matrix direkt ablesen:

A^{-1} = \begin{pmatrix}
    -3 & 2 & 0 \\
    2 & -1 & 0 \\
    1 & -2 & 1
  \end{pmatrix}
.

Adjunkte[Bearbeiten]

Mittels der Adjunkten und der Determinante einer Matrix berechnet sich deren Inverse nach folgender Formel:

A^{-1} = \frac{1}{\det(A)}\operatorname{adj} (A)

Daraus leiten sich für 2 \times 2- und 3 \times 3-Matrizen die folgenden Formeln ab:

Formel für 2x2-Matrizen[Bearbeiten]

A^{-1} = \begin{pmatrix}
a & b \\ c & d \\
\end{pmatrix}^{-1} =
\frac{1}{\det(A)} \begin{pmatrix}
d & -b \\ -c & a \\
\end{pmatrix}  =
\frac{1}{ad-bc} \begin{pmatrix}
d & -b \\ -c & a \\
\end{pmatrix}

Formel für 3x3-Matrizen[Bearbeiten]

A^{-1} = \begin{pmatrix}
a & b & c\\ d & e & f \\ g & h & i \\
\end{pmatrix}^{-1} =
\frac{1}{\det(A)} \begin{pmatrix}
ei - fh & ch - bi & bf - ce \\
fg - di & ai - cg & cd - af \\
dh - eg & bg - ah & ae - bd
\end{pmatrix}

Formel für 4x4-Matrizen[Bearbeiten]

Die Berechnungsvorschrift für 4x4-Matrizen ist aufwendiger: externer Link

Herleitung der Formel[Bearbeiten]

Die Idee, die Inverse einer Matrix mittels der Adjunkten zu berechnen, leitet sich direkt aus der Cramerschen Regel ab. Nach dieser lässt sich das Gleichungssystem

Ax_i = e_i

mit dem i-ten Einheitsvektor auf der rechten Seite durch

x_i = \begin{pmatrix}\frac{\det\left(A_1^{(i)}\right)}{\det(A)} \\[1ex] \frac{\det\left(A_2^{(i)}\right)}{\det(A)} \\ \vdots \\ \frac{\det\left(A_n^{(i)}\right)}{\det(A)}\end{pmatrix} = \frac{1}{\det(A)} \begin{pmatrix}\det\left(A_1^{(i)}\right)\\[1ex] \det\left(A_2^{(i)}\right)\\[1ex] \vdots\\ \det\left(A_n^{(i)}\right)\end{pmatrix} = \frac{1}{\det(A)} \begin{pmatrix}\tilde a_{1i}\\\tilde a_{2i} \\ \vdots \\ \tilde a_{ni}\end{pmatrix}

lösen. Dabei entsteht die Matrix A_k^{(i)} aus A, indem man die k-te Spalte durch den i-ten Einheitsvektor ersetzt. Deren Determinante ist auf Grund der einfachen Gestalt des Einheitsvektors mit dem Cofaktor \tilde a_{ik} identisch. Es zeigt sich, dass die x_i den Spalten der zu A inversen Matrix entsprechen. Dazu multipliziert man beide Seiten des eingangs gezeigten Gleichungssystems von rechts mit dem transponierten i-ten Einheitsvektor e_i^T und bildet die Summe über alle i.

\begin{matrix}
Ax_ie_i^T & = & e_ie_i^T\\[1ex]
Ax_1e_1^T + Ax_2e_2^T + \cdots + Ax_ne_n^T & = & e_1e_1^T + e_2e_2^T + \cdots + e_ne_n^T\\[1ex]
A \cdot\left(x_1e_1^T + x_2e_2^T + \cdots + x_ne_n^T\right) & = & E\\[1ex]
A \cdot \frac{\operatorname{adj} (A)}{\det(A)} & = & E
\end{matrix}

Näherung[Bearbeiten]

Hat eine Matrix A die Eigenschaft

\lim_{k \to \infty} (E - A)^k = 0,

dann ist sie regulär und ihre Inverse kann dann durch folgende geometrische Reihe ausgedrückt werden:[2]

 A^{-1} = \sum_{k = 0}^\infty (E - A)^k.

Besondere Klassen von Matrizen[Bearbeiten]

Es gibt einige Klassen von Matrizen, die auf Grund ihrer Struktur besonders einfach zu invertieren sind. Dazu zählen die Diagonalmatrizen und die Dreiecksmatrizen. Explizite Darstellungen der Inversen existieren für unitäre Matrizen, U^{-1}=U^\ast und für Änderungen vom Rang 1 (Sherman-Morrison-Woodbury-Formel).

Eigenschaften[Bearbeiten]

Ist \lambda ein Eigenwert der regulären Matrix A mit Eigenvektor \vec x, so ist \frac{1}{\lambda} Eigenwert der inversen Matrix A^{-1} ebenfalls zum Eigenvektor \vec x.

Rechenregeln[Bearbeiten]

Das Produkt zweier invertierbarer Matrizen ist wieder invertierbar. Es gilt

(A \cdot B)^{-1}=B^{-1} \cdot A^{-1} .

Die Inverse der transponierten Matrix entspricht der Transponierten der inversen Matrix:

\left(A^T\right)^{-1} = \left(A^{-1}\right)^T .

Die Inverse einer Matrix A ist ebenfalls invertierbar. Die Inverse der Inversen ist gerade wieder die Matrix selbst:

\left(A^{-1}\right)^{-1} = A .

Die Inverse einer Matrix A multipliziert mit einem Skalar k\ne0 ist

\left(kA\right)^{-1} = k^{-1}A^{-1} = \frac{1}{k} A^{-1}

Weblinks[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1. Eric W. Weisstein: Unimodulare Matrix. In: MathWorld (englisch).
  2. Gilbert W. Stewart: Matrix Algorithms. Band 1: Basic Decompositions. SIAM, Philadelphia PA 1998, ISBN 0-89871-414-1, S. 55.