Frobenius-Normalform

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Die Frobenius-Normalform (nach Ferdinand Georg Frobenius) oder rationale Normalform einer quadratischen Matrix A mit Einträgen in einem beliebigen Körper K ist eine transformierte Matrix T^{-1}AT (mit invertierbarer Matrix T), die eine spezielle übersichtliche Form hat. „Übersichtlich“ deswegen, weil sich jede Matrix in genau eine Matrix dieser Form transformieren lässt und sich zwei Matrizen daher genau dann ineinander transformieren lassen, wenn sie dieselbe Frobenius-Normalform haben. Wenn das der Fall ist, sagt man auch, die zwei Matrizen seien sich ähnlich, weil sie dieselbe lineare Abbildung bezüglich unterschiedlicher Basen darstellen. Zu jeder linearen Abbildung eines endlichdimensionalen Vektorraums in sich gibt es daher eine Basis, bezüglich deren sie in Frobenius-Normalform dargestellt wird. Es kann mehrere solche Basen geben, die Transformationsmatrix T ist also nicht eindeutig bestimmt.

Die Frobenius-Normalform lässt sich einerseits als Alternative zur jordanschen Normalform auffassen (die ihrerseits eine Verallgemeinerung der Diagonalform ist), wobei nicht mehr vorausgesetzt werden muss, dass das charakteristische Polynom in Linearfaktoren zerfällt. Andererseits charakterisiert das Lemma von Frobenius zueinander ähnliche Matrizen durch die Elementarteiler ihrer charakteristischen Matrizen und liefert die Frobenius-Normalform als Normalform des Vektorraums unter der Operation eines Polynomrings.

Verallgemeinerung der Diagonalisierung[Bearbeiten]

Wenn eine Matrix A\in K^{n\times n} diagonalisierbar ist, zerfällt ihr charakteristisches Polynom f(x) = {\rm det}(xE-A) in lauter Linearfaktoren (x-x_1)\cdot\ldots\cdot(x-x_n) mit Eigenwerten x_i\in K. Die zugehörigen Eigenvektoren v_i mit (A-x_iE)v_i = 0 bilden eine Basis des Vektorraums K^n, in der jeder Basisvektor durch A auf ein Vielfaches von sich abgebildet wird.

Bei einer nicht diagonalisierbaren Matrix A sind nicht genügend Eigenvektoren für eine Basis vorhanden, oder das charakteristische Polynom f = p_1\cdot \ldots\cdot p_l zerfällt in irreduzible Faktoren p_i, die nicht alle Grad 1 haben. Zur Ermittlung der Frobenius-Normalform von A wird dann analog zum letzten Absatz eine Basis aus Vektoren gesucht, die von bestimmten Produkten der irreduziblen Faktoren f_i(A) = p_{j_1}(A)\cdots p_{j_k}(A) etc. zu null gemacht werden. Es zeigt sich, dass dies möglich ist und man schließlich eine Darstellung f = f_1\cdot \ldots\cdot f_m erhält, in der f_1 Teiler von f_2 ist, f_2 Teiler von f_3 usw. Zum Faktor f_i = x^d + a_{d-1}x^{d-1} + \cdots + a_0 gehören dabei die Basisvektoren (v_i, Av_i, \ldots, A^{d-1}v_i), deren Teilraum wegen f_i(A)v_i = 0 = (A^d + a_{d-1}A^{d-1} + \cdots + a_0E)v_i von A in sich abgebildet wird und auf dem A bezüglich dieser Basisvektoren durch die Matrix

B_{f_i} = \begin{pmatrix}&&&-a_0\\1&&&-a_1\\&\ddots&&\vdots\\&&1&-a_{d-1}\end{pmatrix}

dargestellt wird (die nicht angegebenen Einträge in dieser sog. Begleitmatrix zum Polynom f_i sind 0). Der gesamte Vektorraum K^n zerfällt in solche A-invarianten Teilräume, und A lässt sich insgesamt durch die Blockdiagonalmatrix

\begin{pmatrix}B_{f_1}&&\\&\ddots&\\&&B_{f_m}\end{pmatrix}

darstellen. Sie ist die Frobenius-Normalform von A.

Ein Nachteil dabei ist, dass die Frobenius-Normalform einer Diagonalmatrix mit Eigenwerten 1 und 2 nicht Diagonalform hat, sondern

B_{x^2-3x+2} = \begin{pmatrix}0&-2\\1&3\end{pmatrix}

ist. Abhilfe schafft hier die Weierstraß-Normalform, in der die Begleitmatrix B_{f_i} in der Blockdiagonalmatrix ersetzt wird durch die Begleitmatrizen der Potenzen verschiedener irreduzibler Faktoren von f_i, also etwa durch

\begin{pmatrix}B_{p_1^2}&\\&B_{p_2}\end{pmatrix},

falls f_i = p_1^2p_2 mit p_1\ne p_2. Eine Matrix ist genau dann diagonalisierbar, wenn alle diese Faktoren linear sind und keiner in zweiter oder höherer Potenz vorkommt; also ist dann auch ihre Weierstraß-Normalform eine Diagonalmatrix.

Lemma von Frobenius[Bearbeiten]

Die Menge aller Polynome, das sind Ausdrücke der Form h(x) = a_0 + a_1x + \cdots + a_dx^d, mit Koeffizienten a_i\in K, bildet einen Ring, den sog. Polynomring K[x]. Wenn eine Matrix A\in K^{n\times n} vorgegeben ist, kann man ein Produkt aus Polynom h\in K[x] und Vektor u\in K^n definieren durch h(x)\cdot u = h(A)\cdot u, für das die erwarteten Assoziativ- und Distributivgesetze gelten. Man spricht von einer Operation des Polynomrings auf dem Vektorraum, durch die der Vektorraum K^n zu einem K[x]-Modul \mathcal A wird.

Nach Wahl einer Basis (u_1,\ldots,u_n) von K^n kann man einen K[x]-Modul-Isomorphismus \beta\colon K[x]^n/M\to \mathcal A angeben. Sein Definitionsbereich ist der Faktormodul von K[x]^n modulo M=\langle xE-A\rangle, wobei der Ausdruck in spitzen Klammern (in einer ad hoc gewählten Notation) das Erzeugnis der Spalten der charakteristischen Matrix xE-A bezeichnet. Dieser Isomorphismus überträgt die Operation des Polynomrings, d.h., \beta(hg+M) = h\beta(g+M) für h\in K[x], g\in K[x]^n, und er ist definiert durch

\beta(\begin{pmatrix}g_1\\ \vdots \\g_n\end{pmatrix}+M) = \sum_{i=1}^n g_i(A)u_i.

Die charakteristische Matrix xE-A \in K[x]^{n\times n} mit Einträgen im Polynomring kann durch den Elementarteileralgorithmus in eine Matrix

P(xE-A)Q = \begin{pmatrix}1&&&&&\\&\ddots&&&&\\&&1&&&\\&&&f_1&&\\&&&&\ddots&\\&&&&&f_m\end{pmatrix}

mit invertierbaren P,Q\in K[x]^{n\times n} überführt werden, wobei f_1 Teiler von f_2 ist, f_2 Teiler von f_3 usw., und die Polynome f_i führenden Koeffizienten 1 haben. Diese Polynome heißen die Invariantenteiler der charakteristischen Matrix, die Potenzen der irreduziblen Faktoren der f_i heißen Elementarteiler, und f=f_1\cdot\ldots\cdot f_m ist das charakteristische Polynom von A, denn f=\det(xE-A)=\det(P(xE-A)Q) (die Determinante der charakteristischen Matrix ändert sich nicht bei Multiplikation mit den invertierbaren P und Q). f_m ist das Minimalpolynom von A.

Wegen der Invertierbarkeit von P und Q ist der K[x]-Modul \mathcal A nun nicht nur isomorph (nämlich durch \beta) zu K[x]^n/\langle xE-A\rangle, sondern auch isomorph zu K[x]^n/\langle P(xE-A)Q\rangle. Dieser Faktormodul zerfällt als direkte Summe K[x]/(f_1) \oplus \cdots \oplus K[x]/(f_m); siehe auch den Satz über invariante Faktoren in endlich erzeugten Moduln über einem Hauptidealring. Die Operation des Polynoms x auf dem direkten Summanden K[x]/(f_i) wird durch die Begleitmatrix B_{f_i} dargestellt, wenn eine Basis (v_i,x\cdot v_i,\ldots) = (v_i, Av_i,\ldots) wie im vorigen Abschnitt gewählt wird, und für die Operation von x bzw. A auf dem ganzen Modul \mathcal A ergibt sich eine Darstellung durch die Frobenius-Normalform.

Ist eine weitere Matrix A'\in K^{n\times n} gegeben, so macht diese K^n zu einem weiteren K[x]-Modul \mathcal A'. Ein Isomorphismus \gamma\colon\mathcal A\to \mathcal A' muss die Operation von K[x] übertragen, also \gamma\circ A=A'\circ\gamma, was bedeutet, dass A' durch die Matrix von \gamma bzgl. der gewählten Basis (u_1,\ldots,u_n) in A transformiert wird. Ähnlichkeit von Matrizen A und A' ist demnach gleichbedeutend mit Isomorphie der zugehörigen K[x]-Moduln \mathcal A und \mathcal A'; und deren oben besprochene Zerlegung in invariante Faktoren hat gezeigt, dass diese Isomorphie genau dann vorliegt, wenn die charakteristischen Matrizen xE-A und xE-A' dieselben Elementarteiler haben. Diese Aussage ist als Lemma von Frobenius bekannt.

Als weitere Folgerung aus dem Gezeigten ergibt sich der Satz von Cayley-Hamilton: Die Operation des charakteristischen Polynoms f macht alle direkten Summanden K[x]/(f_i) zu null, weil alle f_i Teiler von f sind. Deswegen ist f(A) = 0, also ergibt eine Matrix, in ihr charakteristisches Polynom eingesetzt, die Nullabbildung.

Literatur[Bearbeiten]

  • Falko Lorenz: Lineare Algebra II, 3. Auflage