Determinante

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Der Titel dieses Artikels ist mehrdeutig. Weitere Bedeutungen sind unter Determinante (Begriffsklärung) aufgeführt.

In der linearen Algebra ist die Determinante eine spezielle Funktion, die einer quadratischen Matrix bzw. allgemein einem Endomorphismus einen Skalar zuordnet. Zum Beispiel hat die 2\times 2-Matrix


 A=\begin{pmatrix}
 a & b \\
 c & d
 \end{pmatrix}

die Determinante

\det A = \begin{vmatrix} a & b \\ c & d \end{vmatrix} = ad-bc.

Mit Hilfe von Determinanten kann man feststellen, ob ein lineares Gleichungssystem eindeutig lösbar ist, und kann die Lösung mit Hilfe der Cramerschen Regel explizit angeben. Das Gleichungssystem ist genau dann eindeutig lösbar, wenn die Determinante der Koeffizientenmatrix ungleich null ist. Entsprechend ist eine quadratische Matrix mit Einträgen aus einem Körper genau dann invertierbar, wenn ihre Determinante ungleich null ist.

Man kann n Vektoren im \R^n die Determinante derjenigen quadratischen Matrix zuordnen, deren Spalten die gegebenen Vektoren bilden. Mit dieser Festlegung kann das Vorzeichen der Determinante, die einer Basis zugeordnet ist, dazu verwendet werden, den Begriff der Orientierung in Euklidischen Räumen zu definieren. Der Absolutbetrag dieser Determinante ist gleich dem Volumen des Parallelepipeds (auch Spat genannt), das durch diese Vektoren aufgespannt wird.

Eine Folgerung ist: Wird die lineare Abbildung f\colon \R^n\to\R^n durch die Matrix A repräsentiert und ist S\subseteq\R^n eine beliebige messbare Teilmenge, dann ist das Volumen von f(S) durch |\det A| \cdot \operatorname{Volumen}(S) gegeben.

Allgemeiner gilt: Wird die lineare Abbildung f\colon \R^n\to \R^m durch die m\times n-Matrix A repräsentiert und ist S\subseteq\R^n eine beliebige messbare Teilmenge, so ist das n-dimensionale Volumen von f(S) gegeben durch \sqrt{\det(A^T A)} \cdot \operatorname{Volumen}(S).

Geschichte[Bearbeiten]

Historisch hängen Determinanten (lat. determinare „abgrenzen“, „bestimmen“) und Matrizen sehr eng zusammen, was auch nach unserem heutigen Verständnis noch so ist. Allerdings wurde der Begriff der Matrix erst über 200 Jahre nach den ersten Überlegungen zu Determinanten geprägt. Ursprünglich wurde eine Determinante im Zusammenhang mit linearen Gleichungssystemen betrachtet. Die Determinante „determiniert“, ob das Gleichungssystem eine eindeutige Lösung besitzt (dies ist genau dann der Fall, wenn die Determinante ungleich null ist). Die ersten Betrachtungen dieser Art für 2×2-Matrizen wurden von Gerolamo Cardano Ende des 16. Jahrhunderts durchgeführt. Zirka hundert Jahre später studierten Gottfried Wilhelm Leibniz und Seki Takakazu Determinanten größerer linearer Gleichungssysteme. Seki, der mittels Determinanten versuchte, schematische Lösungsformeln für Gleichungssysteme anzugeben, fand für den Fall von drei Unbekannten eine Vorschrift, die der sarrusschen Regel entspricht.[1]

Im 18. Jahrhundert wurden Determinanten ein fester Bestandteil der Technik zum Lösen linearer Gleichungssysteme. Im Zusammenhang mit seinen Studien zu Schnittpunkten zweier algebraischer Kurven berechnete Gabriel Cramer die Koeffizienten eines allgemeinen Kegelschnitts

A + By + Cx+ Dy^2 + Exy + x^2 = 0,

der durch fünf vorgegebene Punkte verläuft und stellte dabei die heute nach ihm benannte Cramersche Regel auf. Für Gleichungssysteme mit bis zu vier Unbekannten trat diese Formel schon bei Colin Maclaurin auf.[1]

Mehrere bekannte Mathematiker wie Étienne Bézout, Leonhard Euler, Joseph-Louis Lagrange und Pierre-Simon Laplace befassten sich nun vor allem mit der Berechnung von Determinanten. Einen wichtigen Fortschritt in der Theorie erzielte Alexandre-Théophile Vandermonde in einer 1771 vollendeten und 1776 erschienenen Arbeit zur Eliminationstheorie. Darin formulierte er einige grundlegende Aussagen über Determinanten und gilt daher als ein Begründer der Theorie der Determinante. Zu diesen Resultaten gehörte beispielsweise die Aussage, dass eine gerade Anzahl von Vertauschungen zweier benachbarter Spalten oder Zeilen das Vorzeichen der Determinante nicht ändert, wohingegen sich das Vorzeichen der Determinante bei einer ungeraden Anzahl von Vertauschungen benachbarter Spalten oder Zeilen ändert.[1]

Während seiner Untersuchungen von binären und ternären quadratischen Formen verwendete Gauß die schematische Notation einer Matrix ohne dieses Zahlenfeld als Matrix zu bezeichnen. Dabei definierte er als Nebenprodukt seiner Untersuchungen die heutige Matrizenmultiplikation und zeigte für gewisse Spezialfälle den Determinantenproduktsatz. Augustin-Louis Cauchy systematisierte die Theorie der Determinante weiter. Er führte beispielsweise die konjugierten Elemente ein und unterschied klar zwischen den einzelnen Elementen der Determinante beziehungsweise zwischen den Unterdeterminanten verschiedener Ordnung. Außerdem formulierte und bewies er Sätze über Determinanten wie zum Beispiel den Determinantenproduktsatz oder dessen Verallgemeinerung, die Formel von Binet-Cauchy. Außerdem trug er wesentlich dazu bei, dass sich der Begriff „Determinante“ für diese Abbildung durchsetzte. Daher kann insgesamt auch Augustin-Louis Cauchy als Begründer der Theorie der Determinante angesehen werden.[1]

Die axiomatische Behandlung der Determinante als Funktion von n \times n unabhängigen Variablen gibt als erster Karl Weierstraß in seinen Berliner Vorlesungen (spätestens ab dem Jahre 1864 und möglicherweise schon davor), an die dann Ferdinand Georg Frobenius in dessen Berliner Vorlesungen des Sommersemesters 1874 anknüpft und dabei unter anderem und vermutlich als erster den laplaceschen Entwicklungssatz systematisch auf diese Axiomatik zurückführt.[2]

Definition[Bearbeiten]

Determinante einer quadratischen Matrix (axiomatische Beschreibung)[Bearbeiten]

Eine Abbildung vom Raum der quadratischen Matrizen in den zugrundeliegenden Körper bildet jede Matrix auf ihre Determinante ab, wenn sie folgende drei Eigenschaften (Axiome nach Karl Weierstraß)[3] erfüllt, wobei eine quadratische Matrix spaltenweise als A=(v_1,\ldots, v_n) geschrieben wird:

  • Sie ist multilinear, d. h. linear in jeder Spalte:
Für alle v_1,\ldots,v_n,w \in V gilt:
\begin{align}
 &\det(v_1,\ldots,v_{i-1},v_i+w,v_{i+1},\ldots,v_n)\\
 &=\det(v_1,\ldots,v_{i-1},v_i,v_{i+1},\ldots,v_n) + \det (v_1,\ldots,v_{i-1},w,v_{i+1},\ldots,v_n)
\end{align}
Für alle v_1,\ldots,v_n \in V und alle r \in K gilt:
\det(v_1,\ldots,v_{i-1},r\cdot v_i,v_{i+1},\ldots,v_n) = r \cdot \det(v_1,\ldots,v_{i-1},v_i,v_{i+1},\ldots,v_n)
  • Sie ist alternierend, d. h., wenn in zwei Spalten das gleiche Argument steht, ist die Determinante gleich 0:
Für alle v_1,\ldots,v_n \in V und alle  i, j \in \{1,\ldots,n\}, i\ne j gilt:
\det(v_1,\ldots,v_{i-1},v_i,v_{i+1},\ldots,v_{j-1},v_i,v_{j+1}\ldots,v_n) = 0
Hieraus folgt, dass sich gerade das Vorzeichen ändert, wenn man zwei Spalten vertauscht:
Für alle v_1,\ldots,v_n \in V und alle i, j \in \{1,\ldots,n\}, i\ne j gilt:
\det(v_1,\ldots,v_i,\ldots,v_j,\ldots,v_n) = -\det(v_1,\ldots,v_j,\ldots,v_i,\ldots,v_n)
Oft wird diese Folgerung zur Definition von alternierend verwendet. Im Allgemeinen ist diese jedoch nicht zur obigen äquivalent. Wird alternierend nämlich auf die zweite Weise definiert, gibt es keine eindeutige Determinantenform, wenn der Körper, über dem der Vektorraum gebildet wird, ein von 0 verschiedenes Element x mit x = -x besitzt (Charakteristik 2).
\det E_n=1

Es lässt sich beweisen (und Karl Weierstraß hat dies 1864 oder sogar früher getan),[4] dass es eine und nur eine solche normierte alternierende Multilinearform auf der Algebra der n \times n-Matrizen über dem zugrundeliegenden Körper gibt – nämlich diese Determinantenfunktion \det (Weierstraßsche Determinantenkennzeichnung).[5] Auch die schon erwähnte geometrische Interpretation (Volumeneigenschaft und Orientierung) folgt daraus.

Leibniz-Formel[Bearbeiten]

Für eine n \times n-Matrix wurde die Determinante von Gottfried Wilhelm Leibniz durch die heute als Leibniz-Formel bekannte Formel definiert:

\det A = \sum_{\sigma \in S_n} \left(\operatorname{sgn}(\sigma) \prod_{i=1}^n A_{i, \sigma(i)}\right)

Die Summe wird über alle Permutationen \sigma der symmetrischen Gruppe S_n vom Grad n berechnet. \operatorname{sgn}(\sigma) bezeichnet das Signum der Permutation \sigma (+1, falls \sigma eine gerade Permutation ist, und -1, falls sie ungerade ist) und \sigma(i) ist der Funktionswert der Permutation \sigma an der Stelle i.

Ob eine Permutation gerade oder ungerade ist, erkennt man an der Anzahl der Transpositionen, die benötigt worden sind, um die Permutation zu erzeugen. Eine gerade Anzahl an Vertauschungen bedeutet, dass die Permutation gerade ist, eine ungerade Anzahl an Vertauschungen bedeutet, dass die Permutation ungerade ist.

Beispiel[Bearbeiten]

  • (1, 2, 3)\mapsto(2, 3, 1) zwei Vertauschungen und somit gerade \Rightarrow\sgn(\sigma) = 1
  • (1, 2, 3)\mapsto(2, 1, 3) eine Vertauschung und somit ungerade \Rightarrow\sgn(\sigma) = -1

Diese Formel enthält n! Summanden und ist somit unhandlich, falls n größer als 3 ist. Sie eignet sich jedoch gut zum Beweis von Aussagen über Determinanten.

Eine alternative Schreibweise der Leibniz-Formel verwendet das Levi-Civita-Symbol und die Summenkonvention:


 \det A = \varepsilon_{i_1 i_2 \dots i_n} A_{1i_1} A_{2i_2} \dots A_{ni_n}

Determinante eines Endomorphismus[Bearbeiten]

Es sei V ein n-dimensionaler Vektorraum über einem Körper K. Allgemeiner kann man auch einen kommutativen Ring K mit Einselement und einem freien Modul vom Rang n über K betrachten.

Die Determinante \det f einer K-linearen Abbildung f\colon V\to V ist die Determinante \det A einer Darstellungsmatrix A von f bezüglich einer Basis von V. Sie ist unabhängig von der Wahl der Basis.

Die Definition lässt sich ohne Verwendung von Matrizen folgendermaßen formulieren: Sei \omega eine Determinantenfunktion. Dann ist \det f bestimmt durch f^*\omega = \left(\det f\right) \omega, wobei f^* der Rücktransport von Multilinearformen durch f ist. Es sei \left(v_1,\ldots,v_n\right) eine Basis von V. Dann gilt:


 \det f:=
 \frac{\omega\left(f\left(v_1\right),\ldots,f\left(v_n\right)\right)}{\omega\left(v_1,\ldots,v_n\right)}

Es ist \det f unabhängig von der Wahl von \omega und der Basis. Geometrisch interpretiert erhält man das Volumen des von \left(f\left(v_1\right),\ldots,f\left(v_n\right)\right) aufgespannten Spates, indem man das Volumen des von \left(v_1,\ldots,v_n\right) aufgespannten Spates mit dem Faktor \det f multipliziert.

Eine alternative Definition ist die folgende: Es sei \det V=\Lambda^nV die n-te äußere Potenz von V und \det f = \Lambda^nf\colon\;\det V\to\det V,\; v_1\wedge\ldots\wedge v_n \mapsto f\left(v_1\right)\wedge\ldots\wedge f\left(v_n\right). (\Lambda^nf ergibt sich durch universelle Konstruktion als Fortsetzung von f auf die äußere Algebra \Lambda V, eingeschränkt auf die Komponente vom Grad n.) Dann ist \det V ein eindimensionaler K-Vektorraum (bzw. ein freier K-Modul vom Rang 1), also kann die lineare Abbildung \det f mit einem Element von K identifiziert werden; dieses Element ist die Determinante von f.

Berechnung[Bearbeiten]

Matrizen bis zur Größe 3×3[Bearbeiten]

Für eine nur aus einem Koeffizienten bestehende 1 \times 1-Matrix A ist

\det A = \det \begin{pmatrix}
 a_{11}
 \end{pmatrix} = a_{11}.

Ist A eine 2 \times 2-Matrix, dann ist

\det A=\det
 \begin{pmatrix}
 a_{11} & a_{12} \\
 a_{21} & a_{22}
 \end{pmatrix}
= a_{11} a_{22} - a_{12} a_{21}.

Für eine 3 \times 3-Matrix A gilt die Formel

\begin{align}
\det A &= \det
 \begin{pmatrix}
 a_{11} & a_{12} & a_{13} \\
 a_{21} & a_{22} & a_{23} \\
 a_{31} & a_{32} & a_{33}
 \end{pmatrix}
\\ &= a_{11} a_{22} a_{33} +a_{12} a_{23} a_{31} + a_{13} a_{21} a_{32} - a_{13} a_{22} a_{31} - a_{12} a_{21} a_{33} - a_{11} a_{23} a_{32}.
\end{align}

Will man diese Determinante von Hand berechnen, so stellt die Regel von Sarrus dafür ein einfaches Schema zur Verfügung.

Spatprodukt[Bearbeiten]

Liegt eine 3 \times 3-Matrix vor, lässt sich deren Determinante auch über das Spatprodukt berechnen.

Gaußsches Eliminationsverfahren zur Determinantenberechnung[Bearbeiten]

Allgemein können Determinanten mit dem Gaußschen Eliminationsverfahren unter Verwendung der folgenden Regeln berechnet werden:

  • Ist A eine Dreiecksmatrix, dann ist das Produkt der Hauptdiagonalelemente die Determinante von A.
  • Falls B sich aus A ergibt, indem man zwei Zeilen oder Spalten vertauscht, dann ist \det B=-\det A.
  • Falls B sich aus A ergibt, indem man ein Vielfaches einer Zeile oder Spalte zu einer anderen Zeile oder Spalte addiert, dann ist \det B=\det A.
  • Falls B sich aus A ergibt, indem man ein c-faches einer Zeile oder Spalte bildet, dann ist \det B=c\cdot \det A.

Beginnend mit einer beliebigen quadratischen Matrix benutzt man die letzten drei dieser vier Regeln, um die Matrix in eine obere Dreiecksmatrix zu überführen und berechnet dann die Determinante als Produkt der Diagonalelemente.

Auf diesem Prinzip basiert auch die Determinantenberechnung mittels der LR-Zerlegung. Da sowohl L als auch R Dreiecksmatrizen sind, ergeben sich ihre Determinanten aus dem Produkt der Diagonalelemente, die bei L alle auf 1 normiert sind. Gemäß dem Determinantenproduktsatz ergibt sich die Determinante damit aus dem Zusammenhang

\det A =\det\left(L \cdot R\right) =\det L \cdot \det R =\det R =r_{1,1}\cdot r_{2,2}\dotsb r_{n,n}.

Laplacescher Entwicklungssatz[Bearbeiten]

Mit dem laplaceschen Entwicklungssatz kann man die Determinante einer n \times n-Matrix „nach einer Zeile oder Spalte entwickeln“. Die beiden Formeln lauten

\det A = \sum_{i=1}^n (-1)^{i+j} \cdot a_{ij} \cdot \det A_{ij} (Entwicklung nach der j-ten Spalte)
\det A = \sum_{j=1}^n (-1)^{i+j} \cdot a_{ij} \cdot \det A_{ij} (Entwicklung nach der i-ten Zeile),

wobei A_{ij} die (n-1) \times (n-1)-Untermatrix von A ist, die durch Streichen der i-ten Zeile und j-ten Spalte entsteht. Das Produkt (-1)^{i+j}\det A_{ij} wird Cofaktor \tilde a_{ij} genannt.

Genau genommen gibt der Entwicklungssatz nur ein Verfahren an, die Summanden der Leibniz-Formel in einer bestimmten Reihenfolge zu berechnen. Dabei wird die Determinante bei jeder Anwendung um eine Dimension reduziert. Falls gewünscht, kann das Verfahren so lange angewandt werden, bis sich ein Skalar ergibt. Ein Beispiel ist


 \begin{vmatrix}
 0 & 1 & 2 \\
 3 & 2 & 1 \\
 1 & 1 & 0
 \end{vmatrix}
 =
 0 \cdot
 \begin{vmatrix}
 2 & 1 \\
 1 & 0
 \end{vmatrix}
 -1 \cdot
 \begin{vmatrix}
 3 & 1 \\
 1 & 0
 \end{vmatrix}
 +2 \cdot
 \begin{vmatrix}
 3 & 2 \\
 1 & 1
 \end{vmatrix}
 = 0 + 1 + 2
 = 3

(Entwicklung nach der ersten Zeile) oder allgemein

\begin{vmatrix}a&b&c\\d&e&f\\g&h&i\end{vmatrix} = a\begin{vmatrix}e&f\\h&i\end{vmatrix}-b\begin{vmatrix}d&f\\g&i\end{vmatrix}+c\begin{vmatrix}d&e\\g&h\end{vmatrix}
= a(ei-fh) - b(di - fg) + c(dh - eg) \,.

Der laplacesche Entwicklungssatz lässt sich auf folgende Weise verallgemeinern. Statt nur nach einer Zeile oder Spalte kann man auch nach mehreren Zeilen oder Spalten entwickeln. Die Formel dafür lautet

\det A = \sum_{|J|=|I|} (-1)^{\sum I+\sum J}\det A_{IJ}\det A_{I'J'}

mit den folgenden Bezeichnungen: I und J sind Teilmengen von \{1,\ldots,n\} und A_{IJ} ist die Untermatrix von A, die aus den Zeilen mit den Indizes aus I und den Spalten mit den Indizes aus J besteht. I' und J' bezeichnen die Komplemente von I und J. \sum I = \sum\nolimits_{i\in I} i ist die Summe der Indizes aus I. Für die Entwicklung nach den Zeilen mit den Indizes aus I läuft die Summe über alle J\subseteq \{1,\ldots,n\}, wobei die Anzahl dieser Spaltenindizes |J| gleich der Anzahl der Zeilen |I| ist, nach denen entwickelt wird. Für die Entwicklung nach den Spalten mit den Indizes aus J läuft die Summe über I. Die Anzahl der Summanden ergibt sich als der Binomialkoeffizient \binom{n}{k} mit k=|I|=|J|.

Effizienz: Der Aufwand für die Berechnung nach dem laplaceschen Entwicklungssatz für eine Matrix der Dimension n \times n ist von der Ordnung \mathcal O(n!), während die üblichen Verfahren nur von \mathcal O(n^3) sind und teilweise noch besser (siehe beispielsweise Strassen-Algorithmus) gestaltet werden können. Dennoch kann der laplacesche Entwicklungssatz bei kleinen Matrizen und Matrizen mit vielen Nullen gut angewendet werden.

Eigenschaften[Bearbeiten]

Determinantenproduktsatz[Bearbeiten]

Die Determinante ist eine multiplikative Abbildung in dem Sinne, dass

\det(A\cdot B) = \det A\cdot \det B für alle n\times n-Matrizen A und B.

Das bedeutet, dass die Abbildung \det\colon\mathrm{GL}(n,K)\rightarrow K^* ein Gruppenhomomorphismus von der allgemeinen linearen Gruppe in die Einheitengruppe K^* des Körpers ist. Der Kern dieser Abbildung ist die spezielle lineare Gruppe.

Allgemeiner gilt für die Determinante einer quadratischen Matrix, die das Produkt zweier (nicht notwendig quadratischer) Matrizen ist, der Satz von Binet-Cauchy. Noch allgemeiner ergibt sich als unmittelbare Folgerung aus dem Satz von Binet-Cauchy eine Formel für die Berechnung eines Minors der Ordnung k eines Produktes zweier Matrizen. Ist A eine m\times n-Matrix und B eine n\times p-Matrix und ist I\subseteq \{1,\ldots,n\} und J\subseteq \{1,\ldots,p\} mit |I|=|J|=k, dann gilt mit den Bezeichnungen wie beim verallgemeinerten Entwicklungssatz

\det(A\cdot B)_{IJ}=\sum_{K\subseteq \{1,\ldots,n\},|K|=k}\det A_{IK}\det B_{KJ}.

Der Fall m=p=k liefert den Satz von Binet-Cauchy (der für n=m zum gewöhnlichen Determinantenproduktsatz wird) und der Spezialfall k=1 liefert die Formel für die gewöhnliche Matrizenmultiplikation.

Multiplikation mit Skalaren[Bearbeiten]

Es ist einfach zu sehen, dass \det\left(r\cdot I_n\right)=r^n und somit

\det\left(rA\right) = r^n\det A     für alle n\times n Matrizen A und alle Skalare r.

Existenz der inversen Matrix[Bearbeiten]

Hauptartikel: Reguläre Matrix

Eine Matrix A ist genau dann invertierbar (also regulär), falls \det A eine Einheit des zugrundeliegenden Ringes ist (das heißt \det A ungleich null für Körper). Falls A invertierbar ist, dann gilt für die Determinante der Inversen \det\left(A^{-1}\right)=\left(\det A\right)^{-1}.

Transponierte Matrix[Bearbeiten]

Eine Matrix und ihre Transponierte haben dieselbe Determinante:

\det A=\det A^T

Ähnliche Matrizen[Bearbeiten]

Hauptartikel: Ähnlichkeit (Matrix)

Falls A und B ähnlich sind, das heißt, falls eine invertierbare Matrix X existiert, sodass A= X^{-1}\cdot B\cdot X, dann stimmen ihre Determinanten überein, denn

\begin{align}
\det A = &\det\left(X^{-1}\cdot B\cdot X\right)\\
 = &\det\left(X^{-1}\right)\cdot\det\left(B\right)\cdot\det (X)\\
 = &\det\left(X\right)^{-1}\cdot\det\left(B\right)\cdot\det\left(X\right)\\
 = &\det B.
\end{align}

Deswegen kann man unabhängig von einer Koordinatendarstellung die Determinante einer linearen Selbstabbildung f\colon V\to V definieren (wobei V ein endlichdimensionaler Vektorraum ist), indem man eine Basis für V wählt, die Abbildung f durch eine Matrix relativ zu dieser Basis beschreibt und die Determinante dieser Matrix nimmt. Das Ergebnis ist unabhängig von der gewählten Basis.

Es gibt Matrizen, die die gleiche Determinante haben, aber nicht ähnlich sind.

Dreiecksmatrizen[Bearbeiten]

Bei einer Dreiecksmatrix sind alle Einträge unterhalb oder oberhalb der Hauptdiagonale gleich 0, die Determinante ist das Produkt aller Hauptdiagonalelemente:

\det A = \prod_{i=1}^n a_{i, i}

Blockmatrizen[Bearbeiten]

Für die Determinante einer (2\times 2)-Blockmatrix

\begin{pmatrix}A & B\\ C & D\end{pmatrix}

mit quadratischen Blöcken A und D kann man unter gewissen Voraussetzungen Formeln angeben, welche die Blockstruktur ausnutzen. Für B=0 oder C=0 folgt aus dem verallgemeinerten Entwicklungssatz:

\det\begin{pmatrix}A& 0\\ C& D\end{pmatrix} = \det\begin{pmatrix}A& B\\ 0& D\end{pmatrix} = \det(A)\det(D).

Diese Formel wird auch Kästchensatz genannt.[6]

Ist A invertierbar, so folgt aus der Zerlegung

\begin{pmatrix}A& B\\ C& D\end{pmatrix} = \begin{pmatrix}A& 0\\ C& 1\end{pmatrix} \begin{pmatrix}1& A^{-1} B\\ 0& D - C A^{-1} B\end{pmatrix}

die Formel

\det\begin{pmatrix}A& B\\ C& D\end{pmatrix} = \det(A) \det(D - C A^{-1} B).

Wenn D invertierbar ist, so lässt sich formulieren:

\det\begin{pmatrix}A& B\\ C& D\end{pmatrix} = \det(D) \det(A - B D^{-1} C)[7]

Im Spezialfall, dass alle vier Blöcke die gleiche Größe haben und paarweise kommutieren, ergibt sich daraus mit Hilfe des Determinantenproduktsatzes

\det\begin{pmatrix}A& B\\ C& D\end{pmatrix} = \det(AD - BC)=\det\left(\det_{R}\begin{pmatrix}A& B\\ C& D\end{pmatrix}\right).

Dabei bezeichne R\subseteq K^{n\times n} einen kommutativen Unterring des Ringes aller n\times n-Matrizen mit Einträgen aus dem Körper K, sodass \{A,B,C,D\}\subseteq R (zum Beispiel den von diesen vier Matrizen erzeugten Unterring), und \det_R\colon R^{2\times 2} \rightarrow R sei die entsprechende Abbildung, die einer quadratischen Matrix mit Einträgen aus R ihre Determinante zuordnet. Diese Formel gilt auch, falls A nicht invertierbar ist, und verallgemeinert sich für Matrizen aus R^{m\times m}.[8]

Eigenwerte und charakteristisches Polynom[Bearbeiten]

Ist das charakteristische Polynom der n\times n-Matrix A

\chi_A(x) : = \det(x \cdot E_n-A)
\chi_A(x) = x^n - a_1 x^{n-1} + a_2 x^{n-2} - \dotsb + (-1)^n a_n,

so ist a_n die Determinante von A.

Zerfällt das charakteristische Polynom in Linearfaktoren (mit nicht notwendigerweise verschiedenen \alpha_i):

\chi_A(x) = (x - \alpha_1) \cdot \ldots \cdot (x - \alpha_n),

so ist insbesondere

\det(A)=\alpha_1 \cdot \ldots \cdot \alpha_n.

Sind \lambda_1, \ldots , \lambda_r die verschiedenen Eigenwerte der Matrix A mit r_i-dimensionalen verallgemeinerten Eigenräumen, so ist

\det(A)=\lambda_1^{r_1} \cdot \ldots \cdot \lambda_r^{r_r}.

Ableitung[Bearbeiten]

Die Determinante von reellen quadratischen Matrizen fester Dimension n ist eine Polynomfunktion \det\colon\R^{n\times n}\to \R und als solche überall differenzierbar. Ihre Ableitung kann mit Hilfe von Jacobis Formel dargestellt werden:

d\det A = \operatorname{spur}\left(A^\# d A \right),

wobei A^\# die zu A komplementäre Matrix bezeichnet. Insbesondere ergibt sich für invertierbares A, dass

d\det A = \det A \cdot\operatorname{spur}\left(A^{-1}dA\right)

oder vereinfacht

\det\left(A + X\right) - \det A\approx \det A\cdot\operatorname{spur}\left(A^{-1}\,X\right),

falls die Werte der Matrix X hinreichend klein sind. Der Spezialfall, wenn A gleich der Einheitsmatrix E ist, ergibt

\det \left(E + X\right) \approx 1 + \operatorname{spur}X.

Permanente[Bearbeiten]

Hauptartikel: Permanente

Die Permanente ist ein „vorzeichenloses“ Analogon zur Determinante, wird allerdings viel seltener verwendet.

Verallgemeinerung[Bearbeiten]

Die Determinante kann auch auf Matrizen mit Einträgen in einem kommutativen Ring mit Eins definiert werden. Dies erfolgt mit Hilfe einer gewissen antisymmetrischen multilinearen Abbildung: Falls R ein kommutativer Ring ist und M=R^n der n-dimensionale freie R-Modul, dann sei

f\colon M^n\to R

die eindeutig bestimmte Abbildung mit den folgenden Eigenschaften:

  • f ist R-linear in jedem der n Argumente.
  • f ist antisymmetrisch, d. h., falls zwei der n Argumente gleich sind, so liefert f Null.
  • f\left(e_1, \ldots, e_n\right) = 1, wobei e_i das Element von M ist, das eine 1 als i-te Koordinate hat und sonst Nullen.

Eine Abbildung mit den ersten beiden Eigenschaften wird auch als Determinantenfunktion, Volumen oder alternierende n-Linearform bezeichnet. Man erhält die Determinante, indem man M^n auf natürliche Weise mit dem Raum der quadratischen Matrizen R^{n\times n} identifiziert:

\det\colon R^{n\times n} \cong M^n\xrightarrow f R

Siehe auch[Bearbeiten]

Weblinks[Bearbeiten]

Literatur[Bearbeiten]

Artikel[Bearbeiten]

  •  Ferdinand Georg Frobenius: Zur Theorie der linearen Gleichungen. In: J. Reine Ang. Math. (Crelles Journal). 129, 1905, S. 175–180.

Lehrbücher[Bearbeiten]

  •  Gerd Fischer: Lineare Algebra. 15., verbesserte Auflage. Vieweg Verlag, Wiesbaden 2005, ISBN 3-8348-0031-7.
  •  Günter Pickert: Analytische Geometrie. 6., durchgesehene Auflage. Akademische Verlagsgesellschaft, Leipzig 1967.

Einzelnachweise[Bearbeiten]

  1. a b c d  Heinz-Wilhelm Alten: 4000 Jahre Algebra. Geschichte, Kulturen, Menschen. Springer, Berlin u. a. 2003, ISBN 3-540-43554-9, S. 335–339.
  2.  Frobenius in Crelles Journal, vol. 129: S. 179–180.
  3.  Fischer: S. 178.
  4.  Frobenius in Crelles Journal, vol. 129: S. 179–180.
  5.  Pickert: S. 130.
  6.  Christoph Ableitinger, Angela Herrmann: Lernen aus Musterlösungen zur Analysis und Linearen Algebra. Ein Arbeits- und Übungsbuch. 1. Auflage. Vieweg + Teubner, Wiesbaden 2011, ISBN 978-3-8348-1724-2, S. 114.
  7. Matrix Reference Manual
  8. John R. Silvester: Determinants of Block Matrices. In: The Mathematical Gazette. Vol. 84, No. 501 (November 2000), S. 460-467 (PDF; 148KB).