Pseudoinverse

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Die Pseudoinverse einer Matrix ist ein Begriff aus dem mathematischen Teilgebiet der linearen Algebra, der auch in der numerischen Mathematik eine wichtige Rolle spielt. Sie ist eine Verallgemeinerung der inversen Matrix auf singuläre und nichtquadratische Matrizen, weshalb sie häufig auch als verallgemeinerte Inverse bezeichnet wird. Der häufigste Anwendungsfall für Pseudoinversen ist die Lösung linearer Gleichungssysteme und linearer Ausgleichsprobleme.

Eine erste Form wurde von E. H. Moore (1920)[1] und Roger Penrose (1955)[2] beschrieben. Die nach ihnen benannte Moore-Penrose-Inverse ist nicht die einzige Möglichkeit, eine Pseudoinverse zu definieren, häufig wird aber Pseudoinverse synonym mit Moore-Penrose-Inverse benutzt (wie z. B. in [3]). Die Moore-Penrose-Inverse ist für alle Matrizen mit Einträgen aus den reellen oder komplexen Zahlen definiert und eindeutig. Mit ihr kann man bei linearen Ausgleichsproblemen die optimale Lösung mit kleinster euklidischer Norm berechnen.

Eine numerisch robuste Methode zur Bestimmung der Moore-Penrose-Inversen baut auf der Singulärwertzerlegung auf.

Allgemeine Pseudoinversen[Bearbeiten]

Die Verallgemeinerung der Bildung der Inversen einer Matrix auf singuläre Matrizen wird in der Literatur nicht einheitlich gehandhabt und orientiert sich oftmals an der zu lösenden Aufgabenstellung (einige Beispiele solcher Verallgemeinerungen sind weiter unten aufgeführt).

Nach [4] sollte eine Definition von verallgemeinerten Inversen zumindest die folgenden drei Forderungen erfüllen:

  1. Für reguläre Matrizen sollte sich eindeutig die gewöhnliche Inverse ergeben.
  2. Im verallgemeinerten Sinne sollten auch singuläre Matrizen invertierbar sein (wenigstens einige, nicht notwendigerweise alle).
  3. Für singuläre Matrizen sollten die verallgemeinerten Inversen ähnliche Eigenschaften haben wie gewöhnliche Inverse regulärer Matrizen.

Als Ausgangspunkt für die Konstruktion von verschiedenen Pseudoinversen schwächt Israel[4] dann die vier definierenden Aussagen für die im nächsten Abschnitt beschriebene Moore-Penrose-Inverse in verschiedene Richtungen ab und ergänzt sie durch andere Bedingungen.

Dagegen bezeichnet Koecher in [5] eine Matrix B genau dann als Pseudoinverse von A, wenn für sie die Aussagen

ABA=A und
BAB=B

zutreffen.

Die erste Bedingung sichert dabei, dass die Spalten y von A durch B auf Lösungen x des Gleichungssystems y=Ax abgebildet werden. Durch die zweite Aussage können keine vom Nullvektor verschiedene Spalten von B im Kern von A liegen.

Die Moore-Penrose-Inverse[Bearbeiten]

Die Moore-Penrose-Inverse (auch einfach Pseudoinverse) einer Matrix A \in \mathbb C^{m \times n} ist die eindeutig bestimmte Matrix A^+\in \mathbb C^{n \times m}, welche die folgenden Eigenschaften („Moore-Penrose-Bedingungen“) erfüllt:

  • A A^+A = A
  • A^+A A^+ = A^+       (A^+ ist eine schwache Inverse der multiplikativen Halbgruppe.)
  • (AA^+)^* = AA^+       (Die Matrix AA^+ ist hermitesch.)
  • (A^+A)^* = A^+A       (Die Matrix A^+A ist ebenfalls hermitesch.)

Dabei bezeichnet A^* die adjungierte Matrix zu A. Bei Matrizen mit Einträgen aus den reellen Zahlen ist diese identisch mit der zu A transponierten Matrix A^T.

Die Moore-Penrose-Inverse kann auch durch einen Grenzwert definiert werden:

\begin{align}
  A^+&= \lim_{\delta \to 0} (A^* A + \delta E)^{-1} A^*\\
       &= \lim_{\delta \to 0} A^* (A A^* + \delta E)^{-1}.
\end{align}

Mit E wird hier die Einheitsmatrix bezeichnet. Dieser Grenzwert existiert auch, wenn (A A^*)^{-1} und (A^* A)^{-1} nicht existieren.

Rechenregeln[Bearbeiten]

(A^+)^+ = A
\overline{A}^+ = \overline{A^+}
(A^*)^+= (A^+)^*
(\lambda A)^+= \lambda^{-1} A^+ für \lambda \ne 0

Spezialfälle[Bearbeiten]

Sind die Spalten der Matrix A linear unabhängig, dann ist A^*A invertierbar. In diesem Fall gilt die folgende Gleichung[4]

A^+= (A^* A)^{-1} A^*.

Nimmt man die erste Grenzwertdefinition für die Moore-Penrose-Inverse, so verschwindet der Summand \delta E. Daraus folgt, dass A^+ eine Linksinverse zu A ist.

 A^+A = E

Sind die Zeilen der Matrix A linear unabhängig, dann ist AA^* invertierbar. In diesem Fall gilt die folgende Gleichung

A^+= A^*(A A^*)^{-1}.

Nimmt man die zweite Grenzwertdefinition für die Moore-Penrose-Inverse, so verschwindet der Summand \delta E. Daraus folgt, dass A^+ eine Rechtsinverse zu A ist.

A A^+= E

Sind sowohl Spalten als auch die Zeilen einer Matrix unabhängig, dann ist die Matrix invertierbar und die Pseudoinverse stimmt mit der Inversen überein.

Ist das Produkt AB zweier Matrizen definiert und eine der beiden eine unitäre Matrix, dann gilt

(AB)^+= B^+A^+.

Man kann die Pseudoinverse auch für Skalare und Vektoren definieren, indem man diese als Matrizen betrachtet. Bei Skalaren ist die Pseudoinverse von null wieder null und für alle anderen Werte x ist sie x^{-1}. Für Vektoren gilt

x^+\!= \begin{cases}
 0^T,              & \text{wenn }x=0,\\
\frac{x^*}{x^* x}, & \text{sonst}.
\end{cases}

Diese Behauptungen lassen sich überprüfen, indem man die Kriterien für die Moore-Penrose-Inverse nachprüft.

Ist die Matrix A selbstadjungiert (oder symmetrisch im reellen Fall), dann ist A^+ ebenfalls selbstadjungiert (symmetrisch). Aus dem Spektralsatz folgt in diesem Fall die Zerlegung

UAU^*=D

und damit

A^+=U^*D^+U,

wobei die Pseudoinverse D^+ der Diagonalmatrix D durch

d_{ii}^+ = \begin{cases}
 0,              & \text{wenn } d_{ii} =0,\\
\frac{1}{d_{ii}}, & \text{sonst}
\end{cases}

für alle Diagonaleinträge gegeben ist.

Berechnung[Bearbeiten]

  1. Ist k der Rang der m \times n-Matrix A, dann kann A in das Produkt A = BC einer m \times k-Matrix B und einer k \times n-Matrix C zerlegt werden. Es gilt
A^+= C^*(CC^*)^{-1}(B^*B)^{-1}B^*.

Hat A vollen Zeilenrang, das heißt, es gilt k=m, dann kann für B die Einheitsmatrix gewählt werden und obige Formel reduziert sich zu A^+= A^*(AA^*)^{-1}. In ähnlicher Weise gilt für eine Matrix A mit vollem Spaltenrang, das heißt, es gilt k=n, die Gleichung

A^+= (A^*A)^{-1}A^*.
  1. Mit der Singulärwertzerlegung existiert ein anderes Verfahren zur Berechnung der Pseudoinversen. Ist A = U \Sigma V^* die Singulärwertzerlegung von A, dann gilt
A^+= V\Sigma^+U^*.

Bei einer Diagonalmatrix wie \Sigma entsteht die Pseudoinverse, indem man die von null verschiedenen Elemente invertiert.

(\Sigma)_{ij}^{+} = \begin{cases}\frac{1}{\sigma_i}, & \text{falls } i=j \wedge \sigma_i\ne 0,\\
 0, & \text{sonst}.
\end{cases}
  1. Mit Hilfe der Ränderung von Matrizen kann die Pseudoinverse implizit dargestellt oder auch berechnet werden.[6]
  2. Der Algorithmus von Greville ist eine endliche iterative Methode zur spaltenweisen Berechnung der Moore-Penrose-Inversen.[7]

Das Verfahren, bei dem man die Matrix A^* A benötigt, wird zwar bei der numerischen Berechnung der Lösung überbestimmter Gleichungssysteme der Bequemlichkeit halber öfter benutzt, ist jedoch numerisch instabil, da die Kondition der Matrix quadriert wird. Als stabile und effiziente numerische Methode gilt die Verwendung der QR-Zerlegung. Das auf der Singulärwertzerlegung aufbauende Verfahren ist das aufwändigste, aber auch das numerisch gutartigste. Das auf der Ränderung beruhende Verfahren bietet einen Kompromiss zwischen Aufwand und numerischer Stabilität.

Einen Überblick über numerischen Aufwand und Stabilität der Verfahren gibt auch [6].

Anwendungen[Bearbeiten]

Ist das Gleichungssystem Ax=b nicht lösbar, so lässt sich mit der Pseudoinversen die Lösung nach der Methode der kleinsten Quadrate, also die mit kleinster euklidischer Norm \|A x - b\|_2 als \bar x = A^+b berechnen.

Gibt es für das Gleichungssystem Ax=b unendlich viele Lösungen, so kann man diese über

x=A^+b+(E-A^+A)y,\quad y \in \mathbb C^n

bestimmen. Dabei ist x diejenige Lösung des Gleichungssystems, die von y den kleinsten Abstand bezüglich der euklidischen Norm hat.

Ausgewählte weitere Versionen von verallgemeinerten Inversen[Bearbeiten]

Drazin-Inverse[Bearbeiten]

Sei A\in\R^{n\times n} eine Matrix mit Index i\in\N (der Index von A ist die minimale ganze Zahl i\geq1 für die A^i und A^{(i+1)} den gleichen Kern haben). Dann ist die Drazin-Inverse diejenige eindeutig definierte n\times n-Matrix A^D, die den Bedingungen

  • A^iA^D\,A=A^i
  • A^D\,AA^D=A^D
  • A\,A^D=A^D\,A

genügt. Sie wurde von Michael Drazin eingeführt.

Berechnung[Bearbeiten]

Zur Berechnung kann man die Zerlegung

T\begin{pmatrix}\Lambda&0\\0&N\end{pmatrix}T^{-1}=A

der Matrix A\in\mathbb{R}^{n\times n} in Jordan-Normalform nutzen, wobei \Lambda der reguläre Teil der Jordan-Form sei und N nilpotent. Die Drazin-Inverse ergibt sich dann zu

A^D := T\begin{pmatrix}\Lambda^{-1}&0\\0&0\end{pmatrix}T^{-1}.

Die Drazin-Inverse einer Matrix mit Index i=1 (für die also N gleich der Nullmatrix ist) bezeichnet man auch als Gruppen-Inverse. Die Gruppen-Inverse ist eine Pseudoinverse nach der Definition von Koecher.[5]

Anwendungen[Bearbeiten]

1. Eine wichtige Anwendung für die Drazin-Inverse ist die analytische Darstellung der Lösung zeitinvarianter linearer Deskriptorsysteme. Als Beispiel diene die Differenzengleichung

A x_{k+1} = x_k

eines zeitdiskreten Deskriptorsystems mit der reellen n\times n-Matrix A. Die Lösung \{x_k\}_{k=0,1,2,\ldots}\subset \R^n der Differenzengleichung erfüllt die Gleichungen A^k x_k = x_0 mit k=0,1,2,\ldots. Anfangswerte x_0 sind also nur dann konsistent, wenn sie in allen Bildern der Matrizen A^k liegen (sonst bricht die Lösung nach endlich vielen Schritten ab). Die Lösung der Differenzengleichung ist dann x_k=(A^D)^k x_0.

2. Für reelle oder komplexe n\times n-Matrizen A mit Index i gilt die Gleichung

\int_0^t \exp(A\bar t)\,d\bar t = \sum_{k=0}^{i-1}\frac{t^{k+1}}{(k+1)!}A^k(I-AA^D) + (\exp(At)-I)A^D.

Damit lässt sich die Sprungantwort eines linearen zeitinvarianten dynamischen Systems


\begin{align}
\dot x &= A x + b u\\
     y &= c^T x
\end{align}

mit Eingangssignal


u(t) = \begin{cases}
  0 & \text{bei }t< 0\\
  1 & \text{bei }t\geq0,
\end{cases}

Zustandsvektor x:\R\rightarrow\R^{n\times 1} (x(0) Nullvektor), Systemmatrix A\in\R^{n\times n} und Ein- beziehungsweise Ausgabevektoren b,c\in\R^{n\times 1} in der Form


y(t) = \begin{cases}
  0 & \text{bei }t<0\\
  c^T \left(\sum_{k=0}^{i-1}\frac{t^{k+1}}{(k+1)!}A^k(I-AA^D) + (\exp(At)-I)A^D\right) b & \text{bei }t\geq 0
\end{cases}

darstellen.

Restringierte verallgemeinerte Inversen – die Bott-Duffin-Inverse[Bearbeiten]

Bei manchen praktischen Aufgabenstellungen ist die Lösung x eines linearen Gleichungssystems


Ax=b\qquad (\text{mit vorgegebenem }A\in\R^{m\times n}\text{ und } b\in\R^m)

nur dann zulässig, wenn sie innerhalb eines gewissen linearen Teilraumes L von \R^m liegt. Man sagt auch, dass das Problem durch ein restringiertes lineares Gleichungssystem beschrieben wird (englisch constrained linear equation).

Im Folgenden werde der orthogonale Projektor auf L mit P_L bezeichnet. Das restringierte lineare Gleichungssystem

Ax=b\qquad x\in L

ist genau dann lösbar, wenn das für das unrestringierte Gleichungssystem

(A P_L) x = b\qquad x\in\R^m

zutrifft. Ist der Unterraum L ein echter Teilraum von \R^m, so ist die Systemmatrix des unrestringierten Problems (A P_L) auch dann singulär, wenn sich die Systemmatrix A des restringierten Problems invertieren lässt (in diesem Fall gilt m=n). Das erklärt, dass für die Lösung restringierter Probleme auch Pseudoinverse herangezogen werden. Man bezeichnet eine Pseudoinverse von (A P_L) dann auch als L-restringierte Pseudoinverse von A. Diese Definition scheint zunächst der Forderung 1 aus Abschnitt Allgemeine Pseudoinversen zu widersprechen. Dieser Widerspruch relativiert sich jedoch wieder, wenn man bedenkt, dass die L-restringierte Pseudoinverse für bijektives A auf dem interessierenden Raum L injektiv ist und dass der Bildraum die gleiche Dimension wie L hat.

Ein Beispiel für eine Pseudoinverse mit der sich die Lösung eines restringierten Problems ermitteln lässt, ist die Bott-Duffin-Inverse von A bzgl. L, die durch die Gleichung

A_L^{(-1)}:=P_L(A P_L + P_{L^\perp})^{-1}

definiert ist, falls die auf der rechten Seite auftretende gewöhnliche Inverse existiert.

Anwendungen[Bearbeiten]

Die Bott-Duffin-Inverse kann zur Lösung der Gleichungen eines affin-linearen elektrischen Netzwerkes benutzt werden, wenn sich die Relation zwischen Zweigspannungsbelegungen  v\in\R^n und Zweigstrombelegungen  i\in\R^n in der Form

Ai+u=u^0 \qquad i\in L,\; u\in L^\perp

darstellen lassen, wobei L der Raum aller die kirchhoffschen Knotengleichungen erfüllenden Strombelegungen i ist und u^0 die Spaltenmatrix der in die Zweige eingespeisten unabhängigen Quellspannungen sein soll. An dieser Stelle fließt der graphentheoretische Satz von Tellegen ein, der besagt, dass die Räume der Zweigspannungsbelegungen und Zweigstrombelegungen, die die kirchhoffschen Maschen- beziehungsweise Knotengleichungen erfüllen, orthogonal komplementär zueinander sind.

Eine Eigenschaft der Bott-Duffin-Inversen ist, dass mit ihrer Hilfe die zu einer vorgegebenen Quellspannungsbelegung u^0 zugehörigen Zweigströme

i = A_L^{(-1)} u^0

und Zweigspannungen

u = (E-AA^{(-1)}_L)u^0

berechnet werden können (E steht für die Einheitsmatrix).

Literatur[Bearbeiten]

  • W. Mackens, H. Voß: Mathematik I für Studierende der Ingenieurwissenschaften
  • A.Kielbasinski, H.Schwetlick: Numerische lineare Algebra, Deutscher Verlag der Wissenschaften, 1988

Einzelnachweise[Bearbeiten]

  1. E. H. Moore: On the reciprocal of the general algebraic matrix. In: Bulletin of the American Mathematical Society 26, S. 394–395, 1920
  2. Roger Penrose: A generalized inverse for matrices. In: Proceedings of the Cambridge Philosophical Society 51, S. 406–413, 1955
  3. J. Stoer: Numerische Mathematik 1. Springer Verlag, 2002, ISBN 3-540-66154-9
  4. a b c Adi Ben-Israel, Thomas N.E. Greville: Generalized Inverses. Springer-Verlag, 2003, ISBN 0-387-00293-6
  5. a b Max Koecher: Lineare Algebra und analytische Geometrie, Springer-Verlag Berlin, 1997
  6. a b Nobuo Shinozaki, Masaaki Sibuya, and Kunio Tanabe: Numerical algorithms for the Moore-Penrose inverse of a matrix: Direct methods. Annals of the Institute of Statistical Mathematics, Springer Netherlands, Vol. 24, No. 1, Dec. 1972, pp. 193-203.
  7. T. N. E. Greville: Some applications of the pseudo inverse of a matrix. SIAM Rev., No. 2, 1960, pp. 15-22.