Determinante

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Determinante (Mathematik))
Wechseln zu: Navigation, Suche
Der Titel dieses Artikels ist mehrdeutig. Weitere Bedeutungen sind unter Determinante (Begriffsklärung) aufgeführt.

In der Linearen Algebra ist die Determinante eine spezielle Funktion, die einer quadratischen Matrix bzw. allgemein einem Endomorphismus einen Skalar zuordnet. Zum Beispiel hat die 2\times 2-Matrix


 A=\begin{pmatrix}
 a & b \\
 c & d
 \end{pmatrix}

die Determinante

\det A = \begin{vmatrix} a & b \\ c & d \end{vmatrix} = ad-bc.

Formeln für größere Matrizen werden weiter unten behandelt.

Mit Hilfe von Determinanten kann man feststellen, ob ein Lineares Gleichungssystem eindeutig lösbar ist, und kann die Lösung mit der sogenannten Cramerschen Regel explizit angeben. Das Gleichungssystem ist genau dann eindeutig lösbar, wenn die Determinante der Koeffizientenmatrix ungleich null ist. Entsprechend ist eine quadratische Matrix mit Einträgen aus einem Körper genau dann invertierbar, wenn ihre Determinante ungleich null ist.

Man kann n Vektoren im \R^n die Determinante derjenigen quadratischen Matrix zuordnen, deren Spalten die gegebenen Vektoren bilden. Mit dieser Festlegung kann das Vorzeichen der Determinante, welche einer Basis zugeordnet ist, dazu verwendet werden, den Begriff der Orientierung in Euklidischen Räumen zu definieren. Der Absolutbetrag dieser Determinante ist gleich dem Volumen des Parallelepipeds (auch Spat genannt), das durch diese Vektoren aufgespannt wird. Eine Folgerung ist: Wird die lineare Abbildung f\colon \R^n\to\R^n durch die Matrix A repräsentiert und ist S\subseteq\R^n eine beliebige messbare Teilmenge, dann ist das Volumen von f(S) durch |\det A| \cdot \operatorname{Volumen}(S) gegeben. Allgemeiner gilt: Wird die lineare Abbildung f\colon \R^n\to \R^m durch die m\times n-Matrix A repräsentiert, und ist S\subseteq\R^n eine beliebige messbare Teilmenge, so ist das n-dimensionale Volumen von f(S) gegeben durch \sqrt{\det(A^T A)} \cdot \operatorname{Volumen}(S).

Geschichte[Bearbeiten]

Historisch gesehen wurden Determinanten (lat. determinare „abgrenzen“, „bestimmen“) bereits vor den Matrizen betrachtet. Ursprünglich war eine Determinante als eine Eigenschaft eines linearen Gleichungssystems definiert. Die Determinante „determiniert“, ob das Gleichungssystem eine eindeutige Lösung besitzt (dies ist genau dann der Fall, wenn die Determinante ungleich null ist). In diesem Zusammenhang wurden 2×2-Matrizen von Cardano Ende des 16. Jahrhunderts und größere von Leibniz ungefähr 100 Jahre später behandelt. Die axiomatische Behandlung der Determinante als Funktion von n \times n unabhängigen Variablen gibt als erster Karl Weierstraß in seinen Berliner Vorlesungen (spätestens ab dem Jahre 1864 und möglicherweise schon davor), an welche dann Ferdinand Georg Frobenius in dessen Berliner Vorlesungen des Sommersemesters 1874 anknüpft und dabei unter anderem und vermutlich als erster den laplaceschen Entwicklungssatz systematisch auf diese Axiomatik zurückführt.[1]

Definition[Bearbeiten]

Determinante einer quadratischen Matrix (axiomatische Beschreibung)[Bearbeiten]

Eine Abbildung vom Raum der quadratischen Matrizen in den zugrundeliegenden Körper bildet jede Matrix auf ihre Determinante ab, wenn sie folgende drei Eigenschaften (Axiome nach Karl Weierstraß[2]) erfüllt, wobei eine quadratische Matrix spaltenweise als A=(v_1,\ldots, v_n) geschrieben wird:

  • Sie ist multilinear, d. h. linear in jeder Spalte:
Für alle v_1,\ldots,v_n,w \in V gilt:
\begin{align}
 &\det(v_1,\ldots,v_{i-1},v_i+w,v_{i+1},\ldots,v_n)\\
 &=\det(v_1,\ldots,v_{i-1},v_i,v_{i+1},\ldots,v_n) + \det (v_1,\ldots,v_{i-1},w,v_{i+1},\ldots,v_n)
\end{align}
Für alle  v_1,\ldots,v_n \in V und alle  r \in K gilt
\det(v_1,\ldots,v_{i-1},r\cdot v_i,v_{i+1},\ldots,v_n) = r \cdot \det(v_1,\ldots,v_{i-1},v_i,v_{i+1},\ldots,v_n)
  • Sie ist alternierend, d. h., wenn in zwei Spalten das gleiche Argument steht, ist die Determinante gleich 0:
Für alle v_1,\ldots,v_n \in V und alle  i, j \in \{1,\ldots,n\}, i\ne j gilt
\det(v_1,\ldots,v_{i-1},v_i,v_{i+1},\ldots,v_{j-1},v_i,v_{j+1}\ldots,v_n) = 0\,
Hieraus folgt, dass sich gerade das Vorzeichen ändert, wenn man zwei Spalten vertauscht:
Für alle v_1,\ldots,v_n \in V und alle i, j \in \{1,\ldots,n\}, i\ne j gilt:
\det(v_1,\ldots,v_i,\ldots,v_j,\ldots,v_n) = -\det(v_1,\ldots,v_j,\ldots,v_i,\ldots,v_n)\,
Oft wird diese Folgerung zur Definition von alternierend verwendet. Im Allgemeinen ist diese jedoch nicht zur obigen äquivalent. Wird alternierend nämlich auf die zweite Weise definiert, gibt es keine eindeutige Determinantenform, wenn der Körper, über dem der Vektorraum gebildet wird, ein von 0 verschiedenes Element x mit x = -x besitzt (Charakteristik 2).
\det E_n=1

Es lässt sich beweisen – und Karl Weierstraß hat dies 1864 (oder sogar früher) getan[3] –, dass es eine und nur eine solche normierte alternierende Multilinearform auf der Algebra der n \times n-Matrizen über dem zugrundeliegenden Körper gibt – nämlich diese Determinantenfunktion \det (Weierstraßsche Determinantenkennzeichnung[4]). Auch die schon erwähnte geometrische Interpretation (Volumeneigenschaft und Orientierung) folgt daraus.

Leibniz-Formel[Bearbeiten]

Für eine n \times n-Matrix wurde die Determinante von Gottfried Wilhelm Leibniz durch die heute als Leibniz-Formel bekannte Formel definiert:

\det A = \sum_{\sigma \in S_n} \left(\operatorname{sgn}(\sigma) \prod_{i=1}^n A_{i, \sigma(i)}\right)

Die Summe wird über alle Permutationen \sigma der symmetrischen Gruppe S_n vom Grad n berechnet. \operatorname{sgn}(\sigma) bezeichnet das Signum der Permutation \sigma (+1, falls \sigma eine gerade Permutation ist, und -1, falls sie ungerade ist) und \sigma(i) ist der Funktionswert der Permutation \sigma an der Stelle i.

Ob eine Permutation gerade oder ungerade ist, erkennt man an der Anzahl der Transpositionen, die benötigt worden sind, um die Permutation zu erzeugen. Eine gerade Anzahl an Vertauschungen bedeutet, dass die Permutation gerade ist, eine ungerade Anzahl an Vertauschungen bedeutet, dass die Permutation ungerade ist.

Beispiel[Bearbeiten]

  • (1, 2, 3)\mapsto(2, 3, 1) zwei Vertauschungen und somit gerade \Rightarrow\sgn(\sigma) = 1
  • (1, 2, 3)\mapsto(2, 1, 3) eine Vertauschung und somit ungerade \Rightarrow\sgn(\sigma) = -1

Diese Formel enthält n! Summanden und ist somit unhandlich, falls n größer als 3 ist. Sie eignet sich jedoch zum Beweis von Aussagen über Determinanten.

Eine alternative Schreibweise der Leibniz-Formel verwendet das Levi-Civita-Symbol und die Summenkonvention:


 \det A = \varepsilon_{i_1 i_2 \dots i_n} A_{1i_1} A_{2i_2} \dots A_{ni_n}
.

Verallgemeinerung[Bearbeiten]

Auf die gleiche Weise kann man die Determinante für Matrizen aus einem Matrizenring definieren, deren Einträge in einem kommutativen Ring mit Eins liegen. Dies erfolgt mit Hilfe einer gewissen antisymmetrischen multilinearen Abbildung: Falls R ein kommutativer Ring ist und M=R^n der n-dimensionale freie R-Modul, dann sei

f\colon M^n\to R

die eindeutig bestimmte Abbildung mit den folgenden Eigenschaften:

  • f ist R-linear in jedem der n Argumente.
  • f ist antisymmetrisch, d. h. falls zwei der n Argumente gleich sind, so liefert f Null.
  • f\left(e_1, \ldots, e_n\right) = 1, wobei e_i das Element von M ist, das eine 1 als i-te Koordinate hat und sonst Nullen.

Eine Abbildung mit den ersten beiden Eigenschaften wird auch als Determinantenfunktion, Volumen oder alternierende n-Linearform bezeichnet. Man erhält die Determinante, indem man M^n auf natürliche Weise mit dem Raum der quadratischen Matrizen R^{n\times n} identifiziert:

\det\colon R^{n\times n} \cong M^n\xrightarrow f R.

Determinante eines Endomorphismus[Bearbeiten]

Es sei V ein n-dimensionaler Vektorraum über einem Körper K. (Allgemeiner kann man auch einen kommutativen Ring K mit Einselement und einem freien Modul vom Rang n über K betrachten.)

Die Determinante \det f einer K-linearen Abbildung f\colon V\to V ist die Determinante \det A einer Darstellungsmatrix A von f bezüglich einer Basis von V. Sie ist unabhängig von der Wahl der Basis.

Die Definition lässt sich ohne Verwendung von Matrizen folgendermaßen formulieren: Sei \omega eine Determinantenfunktion. Dann ist \det f bestimmt durch f^*\omega = \left(\det f\right) \omega, wobei f^* der Rücktransport von Multilinearformen durch f ist. Es sei \left(v_1,\ldots,v_n\right) eine Basis von V. Dann gilt


 \det f:=
 \frac{\omega\left(f\left(v_1\right),\ldots,f\left(v_n\right)\right)}{\omega\left(v_1,\ldots,v_n\right)}
.

Es ist \det f unabhängig von der Wahl von \omega und der Basis. Geometrisch interpretiert erhält man das Volumen des von \left(f\left(v_1\right),\ldots,f\left(v_n\right)\right) aufgespannten Spates, indem man das Volumen des von \left(v_1,\ldots,v_n\right) aufgespannten Spates mit dem Faktor \det f multipliziert.

Eine alternative Definition ist die folgende: Es sei \det V=\Lambda^nV die n-te äußere Potenz von V und \det f = \Lambda^nf\colon\;\det V\to\det V,\; v_1\wedge\ldots\wedge v_n \mapsto f\left(v_1\right)\wedge\ldots\wedge f\left(v_n\right). (\Lambda^nf ergibt sich durch universelle Konstruktion als Fortsetzung von f auf die äußere Algebra \Lambda V, eingeschränkt auf die Komponente vom Grad n.) Dann ist \det V ein eindimensionaler K-Vektorraum (bzw. ein freier K-Modul vom Rang 1), also kann die lineare Abbildung \det f mit einem Element von K identifiziert werden; dieses Element ist die Determinante von f.

Berechnung[Bearbeiten]

Matrizen bis zur Größe 3×3[Bearbeiten]

Für eine nur aus einem Koeffizienten bestehende 1 \times 1-Matrix A ist

\det A = \det \begin{pmatrix}
 a_{11}
 \end{pmatrix} = a_{11}.

Ist A eine 2 \times 2-Matrix, dann ist

\det A=\det
 \begin{pmatrix}
 a_{11} & a_{12} \\
 a_{21} & a_{22}
 \end{pmatrix}
= a_{11} a_{22} - a_{12} a_{21}.

Für eine 3 \times 3-Matrix A gilt die Formel

\begin{align}
\det A &= \det
 \begin{pmatrix}
 a_{11} & a_{12} & a_{13} \\
 a_{21} & a_{22} & a_{23} \\
 a_{31} & a_{32} & a_{33}
 \end{pmatrix}
\\ &= a_{11} a_{22} a_{33} +a_{12} a_{23} a_{31} + a_{13} a_{21} a_{32} - a_{13} a_{22} a_{31} - a_{12} a_{21} a_{33} - a_{11} a_{23} a_{32}.
\end{align}

Will man diese Determinante von Hand berechnen, so stellt die Regel von Sarrus dafür ein einfaches Schema zur Verfügung.

Spatprodukt[Bearbeiten]

Liegt eine 3 \times 3-Matrix vor, lässt sich deren Determinante auch über das Spatprodukt berechnen.

Gaußsches Eliminationsverfahren zur Determinantenberechnung[Bearbeiten]

Allgemein können Determinanten mit dem Gaußschen Eliminationsverfahren unter Verwendung der folgenden Regeln berechnet werden:

  • Ist A eine Dreiecksmatrix, dann ist das Produkt der Hauptdiagonalelemente die Determinante von A.
  • Falls B sich aus A ergibt, indem man zwei Zeilen oder Spalten vertauscht, dann ist \det B=-\det A
  • Falls B sich aus A ergibt, indem man ein Vielfaches einer Zeile oder Spalte zu einer anderen Zeile oder Spalte addiert, dann ist \det B=\det A.
  • Falls B sich aus A ergibt, indem man ein c-faches einer Zeile oder Spalte bildet, dann ist \det B=c\cdot \det A.

Beginnend mit einer beliebigen quadratischen Matrix benutzt man die letzten drei dieser vier Regeln, um die Matrix in eine obere Dreiecksmatrix zu überführen, und berechnet dann die Determinante als Produkt der Diagonalelemente.

Auf diesem Prinzip basiert auch die Determinantenberechnung mittels der LR-Zerlegung. Da sowohl L als auch R Dreiecksmatrizen sind, ergeben sich ihre Determinanten aus dem Produkt der Diagonalelemente, die bei L alle auf 1 normiert sind. Gemäß dem Determinantenproduktsatz ergibt sich die Determinante damit aus dem Zusammenhang

\det A =\det\left(L \cdot R\right) =\det L \cdot \det R =\det R =r_{1,1}\cdot r_{2,2}\dotsb r_{n,n}.

Laplacescher Entwicklungssatz[Bearbeiten]

Mit dem Laplaceschen Entwicklungssatz kann man die Determinante einer n \times n-Matrix „nach einer Zeile oder Spalte entwickeln“. Die beiden Formeln lauten

\det A = \sum_{i=1}^n (-1)^{i+j} \cdot a_{ij} \cdot \det A_{ij} (Entwicklung nach der j-ten Spalte)
\det A = \sum_{j=1}^n (-1)^{i+j} \cdot a_{ij} \cdot \det A_{ij} (Entwicklung nach der i-ten Zeile)

wobei A_{ij} die (n-1) \times (n-1)-Untermatrix von A ist, die durch Streichen der i-ten Zeile und j-ten Spalte entsteht. Das Produkt (-1)^{i+j}\det A_{ij} wird Cofaktor \tilde a_{ij} genannt.

Genau genommen gibt der Entwicklungssatz nur ein Verfahren an, die Summanden der Leibniz-Formel in einer bestimmten Reihenfolge zu berechnen. Dabei wird die Determinante bei jeder Anwendung um eine Dimension reduziert. Falls gewünscht, kann das Verfahren so lange angewandt werden, bis sich ein Skalar ergibt. Ein Beispiel ist


 \begin{vmatrix}
 0 & 1 & 2 \\
 3 & 2 & 1 \\
 1 & 1 & 0
 \end{vmatrix}
 =
 0 \cdot
 \begin{vmatrix}
 2 & 1 \\
 1 & 0
 \end{vmatrix}
 -1 \cdot
 \begin{vmatrix}
 3 & 1 \\
 1 & 0
 \end{vmatrix}
 +2 \cdot
 \begin{vmatrix}
 3 & 2 \\
 1 & 1
 \end{vmatrix}
 = 0 + 1 + 2
 = 3

(Entwicklung nach der ersten Zeile), oder allgemein

\begin{vmatrix}a&b&c\\d&e&f\\g&h&i\end{vmatrix} = a\begin{vmatrix}e&f\\h&i\end{vmatrix}-b\begin{vmatrix}d&f\\g&i\end{vmatrix}+c\begin{vmatrix}d&e\\g&h\end{vmatrix}
= a(ei-fh) - b(di - fg) + c(dh - eg) \,.

Der Laplacesche Entwicklungssatz lässt sich auf folgende Weise verallgemeinern. Statt nur nach einer Zeile oder Spalte kann man auch nach mehreren Zeilen oder Spalten entwickeln. Die Formel dafür lautet

\det A = \sum_{|J|=|I|} (-1)^{\sum I+\sum J}\det A_{IJ}\det A_{I'J'},

mit den folgenden Bezeichnungen: I und J sind Teilmengen von \{1,\ldots,n\} und A_{IJ} ist die Untermatrix von A, die aus den Zeilen mit den Indizes aus I und den Spalten mit den Indizes aus J besteht. I' und J' bezeichnen die Komplemente von I und J. \sum I = \sum\nolimits_{i\in I} i ist die Summe der Indizes aus I. Für die Entwicklung nach den Zeilen mit den Indizes aus I läuft die Summe über alle J\subseteq \{1,\ldots,n\}, wobei die Anzahl dieser Spaltenindizes |J| gleich der Anzahl der Zeilen |I| ist, nach denen entwickelt wird. Für die Entwicklung nach den Spalten mit den Indizes aus J läuft die Summe über I. Die Anzahl der Summanden ergibt sich als der Binomialkoeffizient \binom{n}{k} mit k=|I|=|J|.

Effizienz: Der Aufwand für die Berechnung nach dem Laplaceschen Entwicklungssatz für eine Matrix der Dimension n \times n ist von der Ordnung \mathcal O(n!), während die üblichen Verfahren nur von \mathcal O(n^3) sind und teilweise noch besser (siehe beispielsweise Strassen-Algorithmus) gestaltet werden können. Dennoch kann der Laplacesche Entwicklungssatz bei kleinen Matrizen und Matrizen mit vielen Nullen gut angewendet werden.

Eigenschaften[Bearbeiten]

Determinantenproduktsatz[Bearbeiten]

Die Determinante ist eine multiplikative Abbildung in dem Sinne, dass

\det(A\cdot B) = \det A\cdot \det B für alle n\times n-Matrizen A und B.

Das bedeutet, dass die Abbildung \det\colon\mathrm{GL}(n,K)\rightarrow K^* ein Gruppenhomomorphismus von der allgemeinen linearen Gruppe in die Einheitengruppe K^* des Körpers ist. Der Kern dieser Abbildung ist die spezielle lineare Gruppe. Allgemeiner gilt für die Determinante einer quadratischen Matrix, welche das Produkt zweier (nicht notwendig quadratischer) Matrizen ist, der Satz von Binet-Cauchy.

Noch allgemeiner ergibt sich als unmittelbare Folgerung aus dem Satz von Binet-Cauchy eine Formel für die Berechnung eines Minors der Ordnung k eines Produktes zweier Matrizen. Ist A eine m\times n-Matrix und B eine n\times p-Matrix und ist I\subseteq \{1,\ldots,n\} und J\subseteq \{1,\ldots,p\} mit |I|=|J|=k, dann gilt mit den Bezeichnungen wie beim verallgemeinerten Entwicklungssatz

\det(A\cdot B)_{IJ}=\sum_{K\subseteq \{1,\ldots,n\},|K|=k}\det A_{IK}\det B_{KJ},

Der Fall m=p=k liefert den Satz von Binet-Cauchy (welcher für n=m zum gewöhnlichen Determinantenproduktsatz wird) und der Spezialfall k=1 liefert die Formel für die gewöhnliche Matrizenmultiplikation.

Multiplikation mit Skalaren[Bearbeiten]

Es ist einfach zu sehen, dass \det\left(r\cdot I_n\right)=r^n und somit

\det\left(rA\right) = r^n\det A     für alle n\times n Matrizen A und alle Skalare r.

Existenz der inversen Matrix[Bearbeiten]

Hauptartikel: Reguläre Matrix

Eine Matrix A ist genau dann invertierbar also regulär, falls \det A eine Einheit des zugrundeliegenden Ringes ist (das heißt \det A ungleich null für Körper). Falls A invertierbar ist, dann ist \det\left(A^{-1}\right)=\left(\det A\right)^{-1}.

Transponierte Matrix[Bearbeiten]

Eine Matrix und ihre Transponierte haben dieselbe Determinante

\det A=\det A^T.

Ähnliche Matrizen[Bearbeiten]

Hauptartikel: Ähnlichkeit (Matrix)

Falls A und B ähnlich sind, das heißt falls eine invertierbare Matrix X existiert, so dass A= X^{-1}\cdot B\cdot X, dann stimmen ihre Determinanten überein, denn

\begin{align}
\det A = &\det\left(X^{-1}\cdot B\cdot X\right)\\
 = &\det\left(X^{-1}\right)\cdot\det\left(B\right)\cdot\det (X)\\
 = &\det\left(X\right)^{-1}\cdot\det\left(B\right)\cdot\det\left(X\right)\\
 = &\det B.
\end{align}

Deswegen kann man unabhängig von einer Koordinatendarstellung die Determinante einer linearen Selbstabbildung f\colon V\to V definieren (wobei V ein endlichdimensionaler Vektorraum ist), indem man eine Basis für V wählt, die Abbildung f durch eine Matrix relativ zu dieser Basis beschreibt und die Determinante dieser Matrix nimmt. Das Ergebnis ist unabhängig von der gewählten Basis.

Es gibt Matrizen, die die gleiche Determinante haben, aber nicht ähnlich sind.

Dreiecksmatrizen[Bearbeiten]

Bei einer Dreiecksmatrix sind alle Einträge unterhalb oder oberhalb der Hauptdiagonale gleich 0, die Determinante ist das Produkt aller Hauptdiagonalelemente:

\det A = \prod_{i=1}^n a_{i, i}

Blockmatrizen[Bearbeiten]

Für die Determinante einer (2\times 2)-Blockmatrix

\begin{pmatrix}A & B\\ C & D\end{pmatrix}

mit quadratischen Blöcken A und D kann man unter gewissen Voraussetzungen Formeln angeben, welche die Blockstruktur ausnutzen. Für B=0 oder C=0 folgt aus dem verallgemeinerten Entwicklungssatz:

\det\begin{pmatrix}A& 0\\ C& D\end{pmatrix} = \det\begin{pmatrix}A& B\\ 0& D\end{pmatrix} = \det(A)\det(D).

Diese Formel wird auch Kästchensatz genannt.[5]

Ist A invertierbar, so folgt aus der Zerlegung

\begin{pmatrix}A& B\\ C& D\end{pmatrix} = \begin{pmatrix}A& 0\\ C& 1\end{pmatrix} \begin{pmatrix}1& A^{-1} B\\ 0& D - C A^{-1} B\end{pmatrix}

die Formel

\det\begin{pmatrix}A& B\\ C& D\end{pmatrix} = \det(A) \det(D - C A^{-1} B).

Wenn D invertierbar ist, so lässt sich formulieren

\det\begin{pmatrix}A& B\\ C& D\end{pmatrix} = \det(D) \det(A - B D^{-1} C). [6]

Im Spezialfall, dass alle vier Blöcke die gleiche Größe haben und paarweise kommutieren, ergibt sich daraus mit Hilfe des Determinantenproduktsatzes

\det\begin{pmatrix}A& B\\ C& D\end{pmatrix} = \det(AD - BC)=\det\left(\det_{R}\begin{pmatrix}A& B\\ C& D\end{pmatrix}\right).

Dabei bezeichne R\subseteq K^{n\times n} einen kommutativen Unterring des Ringes aller n\times n-Matrizen mit Einträgen aus dem Körper K, so dass \{A,B,C,D\}\subseteq R (zum Beispiel den von diesen vier Matrizen erzeugten Unterring), und \det_R\colon R^{2\times 2} \rightarrow R sei die entsprechende Abbildung, die einer quadratischen Matrix mit Einträgen aus R ihre Determinante zuordnet. Diese Formel gilt auch, falls A nicht invertierbar ist, und verallgemeinert sich für Matrizen aus R^{m\times m}.[7]

Eigenwerte und charakteristisches Polynom[Bearbeiten]

Ist das charakteristische Polynom der n\times n-Matrix A

\chi_A(x) : = \det(x \cdot E_n-A).
\chi_A(x) = x^n - a_1 x^{n-1} + a_2 x^{n-2} - \dotsb + (-1)^n a_n,

so ist a_n die Determinante von A.

Zerfällt das charakteristische Polynom in Linearfaktoren (mit nicht notwendigerweise verschiedenen \alpha_i):

\chi_A(x) = (x - \alpha_1) \cdot \ldots \cdot (x - \alpha_n),

so ist insbesondere

\det(A)=\alpha_1 \cdot \ldots \cdot \alpha_n.

Sind \lambda_1, \ldots , \lambda_r die verschiedenen Eigenwerte der Matrix A mit r_i-dimensionalen verallgemeinerten Eigenräumen, so ist

\det(A)=\lambda_1^{r_1} \cdot \ldots \cdot \lambda_r^{r_r}.

Ableitung[Bearbeiten]

Die Determinante von reellen quadratischen Matrizen fester Dimension n ist eine Polynomfunktion \det\colon\R^{n\times n}\to \R und als solche überall differenzierbar. Ihre Ableitung kann mit Hilfe von Jacobis Formel dargestellt werden:

d\det A = \operatorname{spur}\left(A^\# d A \right),

wobei A^\# die zu A komplementäre Matrix bezeichnet. Insbesondere ergibt sich für invertierbares A, dass

d\det A = \det A \cdot\operatorname{spur}\left(A^{-1}dA\right)

oder vereinfacht

\det\left(A + X\right) - \det A\approx \det A\cdot\operatorname{spur}\left(A^{-1}\,X\right),

falls die Werte der Matrix X hinreichend klein sind. Der Spezialfall, wenn A gleich der Einheitsmatrix E ist, ergibt

\det \left(E + X\right) \approx 1 + \operatorname{spur}X.

Ähnliche Begriffe[Bearbeiten]

Die Permanente ist ein „vorzeichenloses“ Analogon zur Determinante, wird allerdings viel seltener verwendet.

Siehe auch[Bearbeiten]

Weblinks[Bearbeiten]

Literatur[Bearbeiten]

Artikel[Bearbeiten]

  •  Ferdinand Georg Frobenius: Zur Theorie der linearen Gleichungen. In: J. Reine Ang. Math. (Crelles Journal). 129, 1905, S. 175–180.

Lehrbücher[Bearbeiten]

  •  Gerd Fischer: Lineare Algebra. 15., verbesserte Auflage. Vieweg Verlag, Wiesbaden 2005, ISBN 3-8348-0031-7.
  •  Günter Pickert: Analytische Geometrie. 6., durchgesehene Auflage. Akademische Verlagsgesellschaft, Leipzig 1967.

Einzelnachweise[Bearbeiten]

  1.  Frobenius in Crelles Journal, vol. 129: S. 179 - 180.
  2.  Fischer: S. 178.
  3.  Frobenius in Crelles Journal, vol. 129: S. 179 - 180.
  4.  Pickert: S. 130.
  5.  Christoph Ableitinger, Angela Herrmann: Lernen aus Musterlösungen zur Analysis und Linearen Algebra. Ein Arbeits- und Übungsbuch. 1. Auflage. Vieweg + Teubner, Wiesbaden 2011, ISBN 978-3-8348-1724-2, S. 114.
  6. http://www.ee.ic.ac.uk/hp/staff/dmb/matrix/proof003.html
  7. John R. Silvester: Determinants of Block Matrices. In: The Mathematical Gazette. Vol. 84, No. 501 (November 2000), S. 460-467 (PDF; 148KB).