Matrixnorm

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Eine Matrixnorm ist in der Mathematik eine Norm auf dem Vektorraum der reellen oder komplexen Matrizen. Neben den drei Normaxiomen Definitheit, absolute Homogenität und Subadditivität wird bei Matrixnormen teilweise die Submultiplikativität als vierte definierende Eigenschaft gefordert. Submultiplikative Matrixnormen besitzen einige nützliche Eigenschaften, so ist beispielsweise der Spektralradius einer quadratischen Matrix, also der Betrag des betragsgrößten Eigenwerts, niemals größer als ihre Matrixnorm. Es gibt mehrere Möglichkeiten, Matrixnormen zu definieren, unter anderem direkt über eine Vektornorm, als Operatornorm oder über die Singulärwerte der Matrix. Matrixnormen werden insbesondere in der linearen Algebra und der numerischen Mathematik verwendet.

Grundbegriffe[Bearbeiten]

Definition[Bearbeiten]

Ist {\mathbb K} der Körper der reellen oder komplexen Zahlen, so wird mit {\mathbb K}^{m \times n} die Menge der reellen oder komplexen (m × n)-Matrizen bezeichnet, die mit der Matrizenaddition und der Skalarmultiplikation einen Vektorraum bildet. Eine Matrixnorm \| \cdot \| ist nun eine Norm auf dem Matrizenraum, das heißt eine Abbildung

\| \cdot \| \colon {\mathbb K}^{m \times n} \to \R_{+}^0, \; A \mapsto \| A \|,

die einer Matrix eine nichtnegative reelle Zahl zuordnet und die für alle Matrizen A,\, B \in {\mathbb K}^{m \times n} und Skalare \alpha \in \mathbb K die folgenden drei Eigenschaften erfüllt:

Zusammen mit einer Matrixnorm ist der Raum der Matrizen ein normierter Vektorraum ({\mathbb K}^{m \times n}, \| \cdot \|). Da der Raum der Matrizen eine endliche Dimension besitzt, ist dieser normierte Raum auch vollständig und somit ein Banachraum.

Submultiplikativität[Bearbeiten]

Teilweise wird als vierte definierende Eigenschaft gefordert, dass eine Matrixnorm submultiplikativ ist, das heißt, dass für zwei Matrizen A \in {\mathbb K}^{m \times n} und B \in {\mathbb K}^{n \times l}

\| A \cdot B \| \leq \| A \| \cdot \| B \|

gilt. Bei nicht-quadratischen Matrizen ist diese Ungleichung genau genommen aus drei verschiedenen Normen zusammengesetzt. Der Raum der quadratischen Matrizen {\mathbb K}^{n \times n} ist mit der Matrizenaddition und der Matrizenmultiplikation sowie einer submultiplikativen Matrixnorm eine normierte Algebra, insbesondere eine Banachalgebra. Es gibt aber auch Matrixnormen, die nicht submultiplikativ sind.

Verträglichkeit mit einer Vektornorm[Bearbeiten]

Eine Matrixnorm \| \cdot \| heißt verträglich oder kompatibel mit einer Vektornorm \| \cdot \|_V, wenn für eine Matrix A \in {\mathbb K}^{m \times n} und einen Vektor x \in {\mathbb K}^n die Ungleichung

\|A \cdot x\|_V \leq \| A \| \cdot \| x \|_V

gilt. Auch diese Ungleichung ist bei nicht-quadratischen Matrizen genau genommen aus drei verschiedenen Normen zusammengesetzt. Verträglichkeit ist immer dann von Bedeutung, wenn Vektoren und Matrizen gemeinsam in Abschätzungen auftreten. Jede submultiplikative Matrixnorm ist zumindest mit sich selbst als Vektornorm verträglich, da jede Matrixnorm für eine Matrix bestehend aus nur einer Spalte auch eine Vektornorm ist.

Eigenschaften[Bearbeiten]

Äquivalenz[Bearbeiten]

Alle Matrixnormen sind zueinander äquivalent, das heißt zu zwei beliebigen Matrixnormen \| \cdot \|_a und \| \cdot \|_b gibt es zwei positive Konstanten c_1 und c_2, sodass für alle Matrizen A \in {\mathbb K}^{m \times n}

c_1 \| A \|_b \leq \| A \|_a \leq c_2 \| A \|_b

gilt. Diese Äquivalenz ist eine Folgerung daraus, dass in endlichdimensionalen Vektorräumen Normkugeln immer kompakt sind. Eine Matrixnorm kann also durch eine andere Matrixnorm nach oben und nach unten abgeschätzt werden. Über die Größe der Konstanten wird dabei zunächst nichts ausgesagt, für viele Paare von Normen lassen sich die Konstanten aber explizit angeben.

Abschätzung der Eigenwerte[Bearbeiten]

Ist eine Matrixnorm mit irgendeiner Vektornorm verträglich (also beispielsweise submultiplikativ), dann gilt für jeden Eigenwert \lambda einer quadratischen Matrix A \in {\mathbb K}^{n \times n}

| \lambda | \leq \| A \|,

da dann ein zu diesem Eigenwert zugehöriger Eigenvektor x \neq 0 mit  Ax = \lambda x existiert, für den

 | \lambda | \cdot \| x \| = \| \lambda x \| = \| A x \| \leq \| A \| \cdot \| x \|

gilt, womit nach Division durch \| x \| > 0 die Abschätzung folgt. Insbesondere gilt damit für jede submultiplikative Matrixnorm, dass der Spektralradius (der Betrag des betragsgrößten Eigenwerts) einer quadratischen Matrix niemals größer als ihre Norm ist.

Unitäre Invarianz[Bearbeiten]

Eine Matrixnorm heißt unitär invariant, wenn sie invariant unter unitären Transformationen (im reellen Fall orthogonalen Transformationen) ist, das heißt wenn für alle Matrizen A \in {\mathbb K}^{m \times n} und alle unitären Matrizen U \in {\mathbb K}^{m \times m} und V \in {\mathbb K}^{n \times n}.

\| U A V \| = \| A \|

gilt. Eine Matrixnorm ist genau dann unitär invariant, wenn sie sich als betrags- und permutationsinvariante Vektornorm (symmetrisches Eichfunktional) der Singulärwerte der Matrix \sigma_1, \ldots, \sigma_r, r = \min \{ m, n \} durch

\| A \| = \| \, ( \sigma_1, \ldots, \sigma_r ) \|_V

darstellen lässt.[1]

Selbstadjungiertheit[Bearbeiten]

Die zu einer Matrixnorm adjungierte Norm \| \cdot \|^H ist für quadratische Matrizen A \in {\mathbb K}^{n \times n} definiert als die Norm der adjungierten (im reellen Fall transponierten) Matrix A^H, also

\| A \|^H := \| A^H \|.

Eine Matrixnorm heißt selbstadjungiert, wenn sie invariant unter Adjungierung ist, das heißt wenn

\| A \|^H = \| A \|

gilt. Alle unitär invarianten Matrixnormen sind auch selbstadjungiert.[2]

Wichtige Matrixnormen[Bearbeiten]

Über Vektornormen definierte Matrixnormen[Bearbeiten]

Indem alle Einträge einer Matrix untereinander geschrieben werden, kann eine Matrix A \in {\mathbb K}^{m \times n} auch als entsprechend langer Vektor aus {\mathbb K}^{m \cdot n} angesehen werden. Damit können Matrixnormen direkt über Vektornormen definiert werden, insbesondere über die p-Normen

\| A \| = \left(\sum_{i=1}^m \sum_{j=1}^n | a_{ij} |^p\right)^{1/p}.

Da die Summe zweier Matrizen und die Multiplikation einer Matrix mit einem Skalar komponentenweise definiert sind, folgen die Normeigenschaften der Matrixnorm direkt aus den entsprechenden Eigenschaften der zugrundeliegenden Vektornorm. Zwei dieser so definierten Matrixnormen haben eine besondere Bedeutung und Namen.

Gesamtnorm[Bearbeiten]

Hauptartikel: Gesamtnorm

Die Gesamtnorm einer Matrix basiert auf der Maximumsnorm im (m · n)-dimensionalen Raum und ist definiert als

\| A \|_G = \sqrt{mn} \cdot \max_{{i=1, \ldots ,m} \atop {j=1, \ldots , n}} | a_{ij} |,

wobei im Gegensatz zur Maximumsnorm von Vektoren das betragsmaximale Matrixelement mit dem geometrischen Mittel aus Anzahl der Zeilen und Spalten der Matrix \sqrt{mn} multipliziert wird. Durch diese Skalierung ist die Gesamtnorm submultiplikativ und für quadratische Matrizen mit allen p-Normen inklusive der Maximumsnorm verträglich. Die lediglich über das betragsmaximale Element definierte Norm

\| A \|_M = \max_{{i=1, \ldots ,m} \atop {j=1, \ldots , n}} | a_{ij} |

ist ein Beispiel für eine nicht submultiplikative Matrixnorm.

Frobeniusnorm[Bearbeiten]

Hauptartikel: Frobeniusnorm

Die Frobeniusnorm einer Matrix entspricht der euklidischen Norm im (m · n)-dimensionalen Raum und ist definiert als

\| A \|_F = \sqrt{\sum_{i=1}^m \sum_{j=1}^n | a_{ij} |^2 }.

Die Frobeniusnorm ist submultiplikativ, mit der euklidischen Norm verträglich, unitär invariant und selbstadjungiert.

Über Operatornormen definierte Matrixnormen[Bearbeiten]

Hauptartikel: Natürliche Matrixnorm

Eine Matrixnorm heißt von einer Vektornorm induziert oder natürliche Matrixnorm, wenn sie als Operatornorm abgeleitet ist, falls also

\| A \| = \max_{x \neq 0}\frac{\| Ax \|}{\| x \|} = \max_{\| x \| = 1}\| Ax \|

gilt. Anschaulich entspricht eine so definierte Matrixnorm dem größtmöglichen Streckungsfaktor nach Anwendung der Matrix auf einen Vektor. Als Operatornormen sind solche Matrixnormen stets submultiplikativ und mit der Vektornorm, aus der sie abgeleitet wurden, verträglich. Die Operatornormen sind sogar unter allen mit einer Vektornorm verträglichen Matrixnormen jeweils die kleinsten.

Zeilensummennorm[Bearbeiten]

Hauptartikel: Zeilensummennorm
Illustration der Zeilensummennorm einer (2 × 2)-Matrix

Die Zeilensummennorm ist die durch die Maximumsnorm induzierte Norm einer Matrix und durch

\| A \|_\infty = \max_{\| x \|_\infty = 1} \| Ax \|_\infty = \max_{i=1, \ldots ,m}{\sum_{j=1}^n | a_{ij} |}

definiert. Die Berechnung der Zeilensummennorm erfolgt also durch die Ermittlung der Betragssumme jeder Zeile und dann durch Auswahl des Maximums dieser Werte.

Spektralnorm[Bearbeiten]

Hauptartikel: Spektralnorm

Die Spektralnorm ist die durch die euklidische Norm induzierte Norm einer Matrix und durch

\| A \|_2 = \max_{\| x \|_2 = 1} \| Ax \|_2 = \sqrt{\lambda_{\max}(A^H A)}

definiert. Dabei ist A^{H} die zu A adjungierte Matrix (im reellen Fall transponierte Matrix) und \lambda_{\max}(A^{H} A) der betragsmäßig größte Eigenwert des Matrixprodukts A^{H} A. Die Spektralnorm ist unitär invariant und selbstadjungiert.

Spaltensummennorm[Bearbeiten]

Hauptartikel: Spaltensummennorm

Die Spaltensummennorm ist die durch die Summennorm induzierte Norm einer Matrix und durch

\| A \|_1 = \max_{\| x \|_1 = 1} \| Ax \|_1 = \max_{j=1, \ldots ,n} \sum_{i=1}^m | a_{ij} |

definiert. Die Berechnung der Spaltensummennorm erfolgt also durch die Ermittlung der Betragssumme jeder Spalte und dann durch Auswahl des Maximums dieser Werte.

Über Singulärwerte definierte Matrixnormen[Bearbeiten]

Eine weitere Möglichkeit, Matrixnormen über Vektornormen abzuleiten, ist es eine Singulärwertzerlegung einer Matrix

A = U \Sigma V^H

in eine unitäre Matrix U \in {\mathbb K}^{m \times m}, eine Diagonalmatrix \Sigma \in {\mathbb R}^{m \times n} und eine adjungierte unitäre Matrix V^H \in {\mathbb K}^{n \times n} zu betrachten. Die nichtnegativen, reellen Einträge \sigma_1, \ldots , \sigma_r, r=\operatorname{rang}(A), der Diagonalmatrix \Sigma sind dann die Singulärwerte von A und gleich den Quadratwurzeln der Eigenwerte von A^HA. Die Singulärwerte werden dann in einen Vektor \sigma = (\sigma_1, \ldots , \sigma_r) notiert, dessen Vektornorm betrachtet wird.

Schatten-Normen[Bearbeiten]

Hauptartikel: Schatten-Klasse

Die Schatten-Normen, genauer Schatten-p-Normen, einer Matrix sind die p-Normen des Vektors der Singulärwerte \sigma der Matrix und definiert als

\| A \|_p = \| \sigma \|_p = \left( \sum_{j=1}^r (\sigma_j)^p \right)^{1/p}.

Die Schatten-∞-Norm entspricht damit der Spektralnorm, die Schatten-2-Norm der Frobeniusnorm und die Schatten-1-Norm nennt man auch Spurnorm. Alle Schatten-Normen sind submultiplikativ, unitär invariant und selbstadjungiert. Die zu einer Schatten-p-Norm duale Norm ist die Schatten-q-Norm mit (1/p) + (1/q) = 1 für 1 < p,q < \infty.[3]

Ky-Fan-Normen[Bearbeiten]

Hauptartikel: Ky-Fan-Norm

Die Ky-Fan-Norm der Ordnung k \in \{ 1, \ldots , r \} einer Matrix ist die Summe ihrer ersten k Singulärwerte und definiert als

\| A \|_k = \sum_{j=1}^k \sigma_j = \sigma_1 + \sigma_2 + \cdots + \sigma_k,

wobei die Singulärwerte der Größe nach fallend geordnet sind. Die erste Ky-Fan-Norm entspricht damit der Spektralnorm und die r-te Ky-Fan-Norm der Schatten-1-Norm. Alle Ky-Fan-Normen sind unitär invariant und selbstadjungiert.[4]

Anwendungen[Bearbeiten]

Potenzreihen von Matrizen[Bearbeiten]

Matrixnormen werden unter anderem eingesetzt, um die Konvergenz von Potenzreihen von Matrizen zu untersuchen. Beispielsweise konvergiert die Potenzreihe zur Ermittlung der Inverse der quadratischen Matrix I-A \in \mathbb{K}^{n \times n} mit I als der Einheitsmatrix

(I-A)^{-1} = \sum\limits_{k=0}^\infty A^k

wenn \| A \| < 1 für eine beliebige submultiplikative Matrixnorm gilt. Diese Aussage gilt sogar für beliebige stetige Operatoren auf normierten Räumen und ist als Neumann-Reihe bekannt. Mit Hilfe von Matrixnormen kann auch gezeigt werden, dass das Matrixexponential

e^A = \sum_{k=0}^\infty \frac{A^k}{k!}

als Funktion auf dem Raum der quadratischen Matrizen immer konvergent und wohldefiniert ist. Weiterhin sind Matrixnormen nützlich, um die Zahl der Terme in einer Potenzreihe zu ermitteln, die nötig ist, um eine Matrixfunktion bis auf eine bestimmte Genauigkeit zu berechnen.[5]

Störungsrechnung und Kondition[Bearbeiten]

Ein weiteres wichtiges Anwendungsfeld von Matrixnormen liegt in der numerischen Fehleranalyse. Hierbei wird die Sensitivität einer numerischen Berechnung, beispielsweise der Lösung eines linearen Gleichungssystems, bezüglich kleinen Änderungen in den Eingabedaten, etwa den Einträgen der Matrix, untersucht. Das Störungslemma liefert hier eine Abschätzung für die Inverse einer um \delta A gestörten Matrix

\| ( A + \delta A )^{-1} \|

in einer submultiplikativen Matrixnorm. Über den Satz von Bauer-Fike kann mit Hilfe einer submultiplikativen Matrixnorm auch eine Abschätzung der Veränderung der Eigenwerte einer Matrix auf Grund von Störungen in den Matrixeinträgen hergeleitet werden.[6] Diese Abschätzungen führen zu dem zentralen numerischen Begriff der Kondition einer (regulären) Matrix

\kappa(A) = \|A\| \cdot \|A^{-1}\|,

welcher die Verstärkung beschreibt, mit der sich Fehler in den Eingabedaten auf die numerische Lösung auswirken.

Literatur[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1.  Horn, Johnson: Matrix Analysis. Cambridge University Press, 1990, S. 437–440.
  2.  Horn, Johnson: Matrix Analysis. Cambridge University Press, 1990, S. 309.
  3.  Horn, Johnson: Matrix Analysis. Cambridge University Press, 1990, S. 441.
  4.  Horn, Johnson: Matrix Analysis. Cambridge University Press, 1990, S. 445.
  5.  Horn, Johnson: Matrix Analysis. Cambridge University Press, 1990, S. 258.
  6.  Horn, Johnson: Matrix Analysis. Cambridge University Press, 1990, S. 259.

Weblinks[Bearbeiten]