Frobeniusnorm

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Die Frobeniusnorm oder Schurnorm (benannt nach Ferdinand Georg Frobenius bzw. Issai Schur) ist in der Mathematik eine auf der euklidischen Norm basierende Matrixnorm. Sie ist definiert als die Wurzel aus der Summe der Betragsquadrate aller Matrixelemente. Für die Frobeniusnorm gibt es noch eine Reihe weiterer Darstellungen, beispielsweise über eine Spur, über ein Skalarprodukt, über eine Singulärwertzerlegung oder über eine Schurzerlegung. Die Frobeniusnorm ist submultiplikativ, mit der euklidischen Vektornorm verträglich und invariant unter unitären Transformationen, sie ist aber keine Operatornorm. Sie wird beispielsweise in der numerischen linearen Algebra aufgrund ihrer einfacheren Berechenbarkeit zur Abschätzung der Spektralnorm verwendet und bei der Lösung linearer Ausgleichsprobleme mittels der Moore-Penrose-Inverse eingesetzt.

Definition[Bearbeiten]

Die Frobeniusnorm \| \cdot \|_F einer reellen oder komplexen (m × n)-Matrix A \in {\mathbb K}^{m \times n} mit \mathbb K als dem Körper der reellen oder komplexen Zahlen ist definiert als

\| A \|_F := \sqrt{\sum_{i=1}^m \sum_{j=1}^n |a_{ij} |^2 },

also die Wurzel aus der Summe der Betragsquadrate aller Matrixelemente a_{ij}. Die Frobeniusnorm entspricht damit der euklidischen Norm eines Vektors der Länge m \cdot n, in dem alle Einträge der Matrix untereinander notiert sind. Im reellen Fall können die Betragsstriche in der Definition auch weggelassen werden, im komplexen Fall jedoch nicht.

Die Frobeniusnorm ist nach dem deutschen Mathematiker Ferdinand Georg Frobenius benannt. Sie heißt nach seinem Schüler Issai Schur auch Schurnorm und wird manchmal auch Hilbert-Schmidt-Norm genannt (nach David Hilbert und Erhard Schmidt), wobei letzterer Name meist bei der Untersuchung bestimmter linearer Abbildungen auf (möglicherweise unendlichdimensionalen) Hilberträumen verwendet wird, siehe Hilbert-Schmidt-Operator.

Beispiele[Bearbeiten]

Reelle Matrix

Die Frobeniusnorm der reellen (3 × 3)-Matrix

A=\begin{pmatrix}
1 & 2 & 1 \\
-1 & 2 & -3 \\
0 & 1 & -2 \\
\end{pmatrix}

ist gegeben als

\| A \|_F = \sqrt{ \sum_{i=1}^3 \sum_{j=1}^3 ( a_{ij} )^2 } = \sqrt{ 1^2 + 2^2 + 1^2 + ({-}1)^2 + 2^2 + ({-}3)^2 + 0^2 + 1^2 + ({-}2)^2 } = \sqrt{ 25 } = 5.

Komplexe Matrix

Die Frobeniusnorm der komplexen (2 × 2)-Matrix

A=\begin{pmatrix}
1 & i \\
-2i & 3-i  \\
\end{pmatrix}

ist gegeben als

\| A \|_F = \sqrt{ \sum_{i=1}^2 \sum_{j=1}^2 | a_{ij} |^2 } = \sqrt{ | 1 |^2 + | i |^2 + | {-}2i |^2 + | 3-i |^2 } = \sqrt{ 1^2 + 1^2 + 2^2 + (3^2 + 1^2) } = \sqrt{ 16 } = 4.

Weitere Darstellungen[Bearbeiten]

Darstellung über eine Spur[Bearbeiten]

Ist A^H  \in {\mathbb K}^{n \times m} die adjungierte Matrix (im reellen Fall transponierte Matrix) von A \in {\mathbb K}^{m \times n}, dann gilt für die Spur (die Summe der Diagonaleinträge) des Matrizenprodukts A^H A

\operatorname{spur}(A^H A) = \sum_{i=1}^m \sum_{k=1}^n \bar{a}_{ik} \cdot a_{ik} = \sum_{i=1}^m \sum_{k=1}^n | a_{ik} |^2 = \| A \|_F^2.

Somit besitzt die Frobeniusnorm die Darstellung

\| A \|_F = \sqrt{ \operatorname{spur}\left( A^H A \right) } = \sqrt{ \operatorname{spur}\left( A A^H \right) } = \| A^H \|_F

wobei die mittlere Gleichung daraus folgt, dass unter der Spur Matrizen zyklisch vertauscht werden dürfen. Die Frobeniusnorm ist damit selbstadjungiert.

Darstellung über ein Skalarprodukt[Bearbeiten]

Auf dem Matrizenraum der reellen oder komplexen (m × n)-Matrizen definiert für A,B\in\mathbb K^{m\times n}

\langle A, B \rangle = \operatorname{spur}\left( A^H B \right)

ein Skalarprodukt, das auch Frobenius-Skalarprodukt genannt wird. Somit ist die Frobeniusnorm die von dem Frobenius-Skalarprodukt induzierte Norm

\| A \|_F = \sqrt{ \langle A, A \rangle }.

Der Raum der reellen oder komplexen Matrizen ist mit diesem Skalarprodukt ein Hilbertraum und mit der Frobeniusnorm ein Banachraum.

Darstellung über eine Singulärwertzerlegung[Bearbeiten]

Betrachtet man eine Singulärwertzerlegung der Matrix A \in {\mathbb K}^{m \times n}

A = U \Sigma V^H

in eine unitäre Matrix U \in {\mathbb K}^{m \times m}, eine reelle Diagonalmatrix \Sigma \in {\mathbb R}^{m \times n} und eine adjungierte unitäre Matrix V^H \in {\mathbb K}^{n \times n}, dann gilt

\operatorname{spur}\left( A^H A \right) = \operatorname{spur}\left( \left( V \Sigma^H U^H \right) \left( U \Sigma V^H \right) \right) = \operatorname{spur}\left( V \Sigma^H \Sigma V^H \right) = \operatorname{spur}\left( \Sigma^H \Sigma \right) = \sum_{i=1}^r \sigma_i^2,

wobei \sigma_1, \ldots , \sigma_r mit r=\operatorname{rang}(A) die positiven Einträge der Diagonalmatrix \Sigma sind. Diese Einträge sind die Singulärwerte von A und gleich den Quadratwurzeln der Eigenwerte von A^HA. Somit hat die Frobeniusnorm die Darstellung

\| A \|_F = \sqrt{ \sigma_1^2 + \ldots + \sigma_r^2 },

womit sie der euklidischen Norm des Vektors der Singulärwerte und damit der Schatten-2-Norm entspricht.

Darstellung über eine Schurzerlegung[Bearbeiten]

Betrachtet man weiterhin eine Schurzerlegung einer quadratischen Matrix A \in {\mathbb K}^{n \times n}

A = U R U^H

in eine unitäre Matrix U \in {\mathbb K}^{n \times n}, eine obere Dreiecksmatrix R \in {\mathbb K}^{n \times n} und die zu U adjungierte Matrix U^H, dann gilt

\operatorname{spur}\left( A^H A \right) = \operatorname{spur}\left( \left( U R^H U^H \right) \left( U R U^H \right) \right) = \operatorname{spur}\left( U R^H R U^H \right) = \operatorname{spur}\left( R^H R \right) = \| R \|_F^2.

Zerlegt man nun die Matrix R in ihre Hauptdiagonale \Lambda \in {\mathbb K}^{n \times n} bestehend aus den Eigenwerten \lambda_1, \ldots, \lambda_n von A und eine strikt obere Dreiecksmatrix N \in {\mathbb K}^{n \times n}, dann gilt für die Frobeniusnorm von A

\| A \|_F = \| R \|_F = \sqrt{ \| \Lambda \|_F^2 + \| N \|_F^2 } = \sqrt{ (|\lambda_1|^2 + \ldots + |\lambda_n|^2) + \| N \|_F^2 },

wobei die Frobeniusnorm von N genau dann Null ist, wenn A eine normale Matrix ist. Ist A nicht normal, dann stellt \| N \|_F ein Maß für die Abweichung von der Normalität dar.

Eigenschaften[Bearbeiten]

Normeigenschaften[Bearbeiten]

Da die Summe zweier Matrizen A, B \in {\mathbb K}^{m \times n} und die Multiplikation einer Matrix mit einem Skalar komponentenweise definiert sind, folgen die Normeigenschaften Definitheit, absolute Homogenität und Subadditivität direkt aus den entsprechenden Eigenschaften der euklidischen Norm. Insbesondere folgt die Gültigkeit der Dreiecksungleichung

\| A + B \|_F \leq \| A \|_F + \| B \|_F

aus der Cauchy-Schwarz-Ungleichung über

\| A + B \|^2_F = \| A \|_F^2 + 2 \operatorname{Re} \langle A, B \rangle + \| B \|_F^2 \leq \| A \|_F^2 + 2 \| A \|_F \| B \|_F + \| B \|_F^2 = \left( \| A \|_F + \! \| B \|_F \right)^2,

wobei \langle \cdot, \cdot \rangle obiges Skalarprodukt auf Matrizen ist und \operatorname{Re} den Realteil der komplexen Zahl angibt.

Submultiplikativität[Bearbeiten]

Die Frobeniusnorm ist submultiplikativ, das heißt für Matrizen A \in {\mathbb K}^{m \times n} und B \in {\mathbb K}^{n \times l} gilt

\| A \, B \|_F \leq \| A \|_F \, \| B \|_F,

wie ebenfalls mit Hilfe der Cauchy-Schwarz-Ungleichung durch

\| A \, B \|^2_F = \sum_{i=1}^m \sum_{k=1}^l \left| \sum_{j=1}^n a_{ij} b_{jk} \right|^2 \! = \sum_{i=1}^m \sum_{k=1}^l \left| \langle a^H_{i \ast}, b_{\ast k} \rangle \right|^2 \leq \sum_{i=1}^m \sum_{k=1}^l \| a^H_{i \ast} \|_2^2 \, \| b_{\ast k} \|_2^2 = \sum_{i=1}^m \| a^H_{i \ast} \|_2^2 \, \sum_{k=1}^l \| b_{\ast k} \|_2^2 = \| A \|^2_F \, \| B \|^2_F

gezeigt werden kann. Hierbei ist a_{i \ast} die i-te Zeile von A, b_{\ast k} die k-te Spalte von B, \langle \cdot , \cdot \rangle das Standardskalarprodukt auf Vektoren und \| \cdot \|_2 die euklidische Vektornorm.

Verträglichkeit mit der euklidischen Norm[Bearbeiten]

Die Frobeniusnorm ist mit der euklidischen Norm verträglich, das heißt für eine Matrix A \in {\mathbb K}^{m \times n} und einen Vektor x \in {\mathbb K}^n gilt die Ungleichung

\| A \, x \|_2 \leq \| A \|_F \, \| x \|_2,

was wiederum über die Cauchy-Schwarz-Ungleichung aus

\| A \, x \|^2_2 = \sum_{i=1}^m \left| \sum_{j=1}^n a_{ij} x_j \right|^2 = \sum_{i=1}^m \left| \langle a^H_{i \ast}, x \rangle \right|^2 \leq \sum_{i=1}^m \| a^H_{i \ast} \|_2^2 \, \| x \|_2^2 = \| A \|^2_F \, \| x \|^2_2

folgt und was lediglich den Spezialfall der Submultiplikativität für l=1 darstellt.

Unitäre Invarianz[Bearbeiten]

Die Frobeniusnorm ist invariant unter unitären Transformationen (im reellen Fall orthogonalen Transformationen), das heißt

\| U A V \|_F = \| A \|_F

für alle unitären Matrizen U \in {\mathbb K}^{m \times m} und V \in {\mathbb K}^{n \times n}. Dies folgt direkt über die Spurdarstellung aus

\| U A V \|^2_F = \operatorname{spur}\left( \left( V^H A^H U^H \right) \left( U A V \right) \right) = \operatorname{spur}\left( A^H A \right) = \| A \|^2_F.

Durch diese Invarianz ändert sich auch die Kondition einer Matrix bezüglich der Frobeniusnorm nach einer Multiplikation mit einer unitären Matrix von links oder rechts nicht.

Nichtdarstellbarkeit als Operatornorm[Bearbeiten]

Die Frobeniusnorm ist keine Operatornorm und damit keine natürliche Matrixnorm, das heißt es gibt keine Vektornorm \| \cdot \|, sodass

\max_{x \neq 0}\frac{\| Ax \|}{\| x \|} = \| A \|_F

gilt, da jede Operatornorm für die Einheitsmatrix I den Wert Eins besitzen muss, jedoch \| I \|_F = \sqrt{\min\{ m,n \}} für m,n \geq 2 einen Wert größer als Eins ergibt. Selbst eine entsprechend skalierte Version der Frobeniusnorm ist keine Operatornorm, da diese Norm dann nicht submultiplikativ ist, was eine weitere Eigenschaft jeder Operatornorm ist.

Spezialfälle[Bearbeiten]

Normale Matrizen[Bearbeiten]

Ist die Matrix A \in {\mathbb K}^{n \times n} normal mit Eigenwerten \lambda_1, \ldots , \lambda_n, dann gilt

\| A \|_F = \sqrt{|\lambda_1|^2 + \ldots + |\lambda_n|^2}.

Die Frobeniusnorm entspricht damit der euklidischen Norm des Vektors der Eigenwerte der Matrix.

Unitäre Matrizen[Bearbeiten]

Ist die Matrix A \in {\mathbb K}^{n \times n} unitär (im reellen Fall orthogonal), dann gilt

\| A \|_F = \sqrt{\operatorname{spur}\left( A^H A \right)} = \sqrt{\operatorname{spur}\left( I \right)} = \sqrt{n}.

Die Frobeniusnorm hängt in diesem Fall also nur von der Größe der Matrix ab.

Rang-Eins-Matrizen[Bearbeiten]

Besitzt die Matrix A \in {\mathbb K}^{m \times n} den Rang null oder eins, das heißt A = x y^T mit x \in {\mathbb K}^{m} und y \in {\mathbb K}^{n}, dann gilt

\| A \|_F = \| x \|_2 \cdot \| y \|_2,

wobei \| \cdot \|_2 wieder die euklidische Vektornorm ist.

Anwendungen[Bearbeiten]

Abschätzung der Spektralnorm[Bearbeiten]

Die Frobeniusnorm wird in der numerischen linearen Algebra aufgrund ihrer einfacheren Berechenbarkeit häufig zur Abschätzung der Spektralnorm eingesetzt, denn es gilt

 \| A \|_2 \leq \| A \|_F \leq \sqrt{\min\{m,n\}} \cdot \| A \|_2.

Gleichheit gilt dabei genau dann, wenn der Rang der Matrix null oder eins ist. Diese beiden Abschätzungen folgen aus der Darstellung der Frobeniusnorm über die Singulärwertzerlegung aus

 \| A \|_2^2 = \sigma^2_{\max} \leq \sigma^2_1 + \ldots + \sigma^2_r = \| A \|_F^2 = \sigma^2_1 + \ldots + \sigma^2_r \leq r \cdot \sigma^2_{\max} = r \cdot \| A \|_2^2,

wobei \sigma_1,  \ldots , \sigma_r mit r \leq \min\{m,n\} die Singulärwerte von A sind und \sigma_{\max} der maximale Singulärwert von A ist, der gerade der Spektralnorm entspricht. Die Summe der Quadrate der Singulärwerte wird dabei durch das Quadrat des größten Singulärwerts nach unten und durch das r-fache des Quadrats des größten Singulärwerts nach oben abgeschätzt.

Lineare Ausgleichsprobleme[Bearbeiten]

Ist A eine singuläre oder nichtquadratische Matrix, so stellt sich oft die Frage nach ihrer näherungsweisen Inversen, also einer Matrix Z, sodass

A \cdot Z \approx I.

mit I als der Einheitsmatrix gilt. Die Moore-Penrose-Inverse A^{+} ist eine wichtige solche Pseudoinverse und definiert als diejenige Matrix, für die die Abweichung in der Frobeniusnorm

\| I - A \cdot Z \|_F

minimal wird. Sie hat mittels einer Singulärwertzerlegung von A die Darstellung

A^{+} = V \Sigma^{+} U^H,

wobei \Sigma^{+} aus der Diagonalmatrix \Sigma dadurch entsteht, dass die von Null verschiedenen Elemente invertiert werden. Über eine Pseudoinverse lassen sich beispielsweise Matrixgleichungen

A \cdot X = B

durch

X \approx A^{+}B

näherungsweise lösen, wobei die Näherungslösung über die Moore-Penrose-Inverse dann den Fehler

\| B - A \cdot X \|_F

in der Frobeniusnorm im Sinne der Methode der kleinsten Quadrate minimiert.

Literatur[Bearbeiten]

Weblinks[Bearbeiten]