„Eigenwerte und Eigenvektoren“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
[gesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
→‎Eigenschaften: symmetrische und hermitesche Matrizen abgetrennt, Eigenschaften überarbeitet, Rayleigh-Quotient und Satz von Courant-Fischer ergänzt
Vorlagenfix tk k
Zeile 1: Zeile 1:
[[Datei:Mona Lisa with eigenvector.png|miniatur|270px|In dieser [[Scherung (Geometrie)|Scherung]] der Mona Lisa wurde das Bild so verformt, dass der rote Pfeil (Vektor) seine Richtung (entlang der vertikalen Achse) nicht geändert hat, der blaue Pfeil jedoch schon. Der rote Vektor ist ein Eigenvektor der [[Scherung (Geometrie)|Scherabbildung]], während der blaue Vektor dies aufgrund seiner Richtungsänderung nicht ist. Da der rote Vektor nicht skaliert wird, ist sein zugehöriger Eigenwert 1.]]
[[Datei:Mona Lisa with eigenvector.png|miniatur|270px|In dieser [[Scherung (Geometrie)|Scherung]] der Mona Lisa wurde das Bild so verformt, dass der rote Pfeil (Vektor) seine Richtung (entlang der vertikalen Achse) nicht geändert hat, der blaue Pfeil jedoch schon. Der rote Vektor ist ein Eigenvektor der [[Scherung (Geometrie)|Scherabbildung]], während der blaue Vektor dies aufgrund seiner Richtungsänderung nicht ist. Da der rote Vektor nicht skaliert wird, ist sein zugehöriger Eigenwert 1.]]


Ein '''Eigenvektor''' einer [[Abbildung (Mathematik)|Abbildung]] ist in der [[Lineare Algebra|linearen Algebra]] ein vom [[Nullvektor]] verschiedener [[Vektor]], dessen Richtung durch die Abbildung nicht verändert wird. Ein Eigenvektor wird also nur skaliert und man bezeichnet den Skalierungsfaktor als '''Eigenwert''' der Abbildung.
Ein '''Eigenvektor''' einer [[Abbildung (Mathematik)|Abbildung]] ist in der [[Lineare Algebra|linearen Algebra]] ein vom [[Nullvektor]] verschiedener [[Vektor]], dessen Richtung durch die Abbildung nicht verändert wird. Ein Eigenvektor wird also nur skaliert und man bezeichnet den Skalierungsfaktor als '''Eigenwert''' der Abbildung.


Eigenwerte charakterisieren wesentliche Eigenschaften [[Lineare Abbildung|linearer Abbildungen]], etwa ob ein entsprechendes lineares Gleichungssystem eindeutig lösbar ist oder nicht. In vielen Anwendungen beschreiben Eigenwerte auch physikalische Eigenschaften eines [[Mathematisches Modell|mathematischen Modells]]. Die Verwendung der Vorsilbe ''„Eigen-“'' für charakteristische Größen in diesem Sinne lässt sich auf eine Veröffentlichung von [[David Hilbert]] aus dem Jahre 1904 zurückführen.<ref name="Hilberts" />
Eigenwerte charakterisieren wesentliche Eigenschaften [[Lineare Abbildung|linearer Abbildungen]], etwa ob ein entsprechendes lineares Gleichungssystem eindeutig lösbar ist oder nicht. In vielen Anwendungen beschreiben Eigenwerte auch physikalische Eigenschaften eines [[Mathematisches Modell|mathematischen Modells]]. Die Verwendung der Vorsilbe „Eigen-“ für charakteristische Größen in diesem Sinne lässt sich auf eine Veröffentlichung von [[David Hilbert]] aus dem Jahre 1904 zurückführen.<ref name="Hilberts" />


Die im Folgenden beschriebene mathematische Problemstellung heißt ''spezielles Eigenwertproblem'' und bezieht sich nur auf lineare Abbildungen eines endlichdimensionalen [[Vektorraum]]s in sich ([[Endomorphismus|Endomorphismen]]), wie sie durch quadratische [[Matrix (Mathematik)|Matrizen]] dargestellt werden.
Die im Folgenden beschriebene mathematische Problemstellung heißt ''spezielles Eigenwertproblem'' und bezieht sich nur auf lineare Abbildungen eines endlichdimensionalen [[Vektorraum]]s in sich ([[Endomorphismus|Endomorphismen]]), wie sie durch quadratische [[Matrix (Mathematik)|Matrizen]] dargestellt werden.
Zeile 11: Zeile 11:
== Definition ==
== Definition ==
Ist <math>V</math> ein Vektorraum über einem [[Körper (Algebra)|Körper]] <math>K</math> (in Anwendungen meist der Körper <math>\R</math> der [[Reelle Zahl|reellen Zahlen]] oder der Körper <math>\C</math> der [[Komplexe Zahl|komplexen Zahlen]]) und <math>f\colon V \to V</math> eine lineare Abbildung von <math>V</math> in sich selbst ([[Endomorphismus]]), so bezeichnet man als ''Eigenvektor'' einen Vektor <math>v \ne 0</math>, der durch <math>f</math> auf ein Vielfaches <math>\lambda\,v</math> von sich selbst mit <math>\lambda \in K</math> abgebildet wird:
Ist <math>V</math> ein Vektorraum über einem [[Körper (Algebra)|Körper]] <math>K</math> (in Anwendungen meist der Körper <math>\R</math> der [[Reelle Zahl|reellen Zahlen]] oder der Körper <math>\C</math> der [[Komplexe Zahl|komplexen Zahlen]]) und <math>f\colon V \to V</math> eine lineare Abbildung von <math>V</math> in sich selbst ([[Endomorphismus]]), so bezeichnet man als ''Eigenvektor'' einen Vektor <math>v \ne 0</math>, der durch <math>f</math> auf ein Vielfaches <math>\lambda\,v</math> von sich selbst mit <math>\lambda \in K</math> abgebildet wird:
:<math>f(v) = \lambda \, v</math>
: <math>f(v) = \lambda \, v</math>
Den Faktor <math>\lambda</math> nennt man dann den zugehörigen ''Eigenwert''.
Den Faktor <math>\lambda</math> nennt man dann den zugehörigen ''Eigenwert''.


Anders formuliert: Hat für ein <math>\lambda \in K</math> die Gleichung
Anders formuliert: Hat für ein <math>\lambda \in K</math> die Gleichung
:<math>f(v) = \lambda \, v</math>
: <math>f(v) = \lambda \, v</math>
eine Lösung <math>v \ne 0</math> (der Nullvektor ist natürlich immer eine Lösung), so heißt <math>\lambda</math> ''Eigenwert'' von <math>f.</math> Jede Lösung <math>v \ne 0</math> heißt ''Eigenvektor'' von <math>f</math> zum Eigenwert <math>\lambda.</math>
eine Lösung <math>v \ne 0</math> (der Nullvektor ist natürlich immer eine Lösung), so heißt <math>\lambda</math> ''Eigenwert'' von <math>f.</math> Jede Lösung <math>v \ne 0</math> heißt ''Eigenvektor'' von <math>f</math> zum Eigenwert <math>\lambda.</math>


Hat der Vektorraum eine endliche Dimension <math>\operatorname{dim}(V)=n\in\N,</math> so kann jeder Endomorphismus <math>f</math> durch eine quadratische <math>\left(n\times n\right)\text{-Matrix } A</math> beschrieben werden. Die obige Gleichung lässt sich dann als Matrizengleichung
Hat der Vektorraum eine endliche Dimension <math>\operatorname{dim}(V)=n\in\N,</math> so kann jeder Endomorphismus <math>f</math> durch eine quadratische <math>\left(n\times n\right)\text{-Matrix } A</math> beschrieben werden. Die obige Gleichung lässt sich dann als Matrizengleichung
:<math>A \cdot x = \lambda \,x</math>
: <math>A \cdot x = \lambda \,x</math>
schreiben, wobei <math>x</math> hier einen Spaltenvektor bezeichnet. Man nennt in diesem Fall eine Lösung <math>x \ne 0</math> Eigenvektor und <math>\lambda</math> Eigenwert der Matrix <math>A.</math>
schreiben, wobei <math>x</math> hier einen Spaltenvektor bezeichnet. Man nennt in diesem Fall eine Lösung <math>x \ne 0</math> Eigenvektor und <math>\lambda</math> Eigenwert der Matrix <math>A.</math>


Diese Gleichung kann man auch in der Form
Diese Gleichung kann man auch in der Form
:<math>A \cdot x = \lambda \,E \cdot x</math>
: <math>A \cdot x = \lambda \,E \cdot x</math>
schreiben, wobei <math>E</math> die [[Einheitsmatrix]] bezeichnet, und äquivalent zu
schreiben, wobei <math>E</math> die [[Einheitsmatrix]] bezeichnet, und äquivalent zu
:<math>(A - \lambda E) \cdot x = 0</math>
: <math>(A - \lambda E) \cdot x = 0</math>
oder
oder
:<math>(\lambda E - A) \cdot x = 0</math>
: <math>(\lambda E - A) \cdot x = 0</math>
umformen.
umformen.


Zeile 35: Zeile 35:
=== Symbolische Berechnung ===
=== Symbolische Berechnung ===
Die Gleichung
Die Gleichung
:<math>\left(A - \lambda E\right) \cdot x = 0</math>
: <math>\left(A - \lambda E\right) \cdot x = 0</math>
definiert die Eigenwerte und stellt ein homogenes [[lineares Gleichungssystem]] dar. Da <math>x \neq 0</math> vorausgesetzt wird, ist dieses genau dann lösbar, wenn
definiert die Eigenwerte und stellt ein homogenes [[lineares Gleichungssystem]] dar. Da <math>x \neq 0</math> vorausgesetzt wird, ist dieses genau dann lösbar, wenn
:<math>\det\left(A - \lambda E\right) = 0</math>
: <math>\det\left(A - \lambda E\right) = 0</math>
gilt. Diese [[Determinante (Mathematik)|Determinante]] heißt „[[charakteristisches Polynom]]“. Es handelt sich um ein [[Polynom#Definition|normiertes Polynom]] <math>\chi_A(\lambda)\in K(\lambda)</math> <math>n</math>-ten Grades in <math>\lambda.</math> Seine [[Faktorisierung von Polynomen|Nullstellen]], also die Lösungen der Gleichung
gilt. Diese [[Determinante (Mathematik)|Determinante]] heißt „[[charakteristisches Polynom]]“. Es handelt sich um ein [[Polynom#Definition|normiertes Polynom]] <math>\chi_A(\lambda)\in K(\lambda)</math> <math>n</math>-ten Grades in <math>\lambda.</math> Seine [[Faktorisierung von Polynomen|Nullstellen]], also die Lösungen der Gleichung
:<math>\lambda^n+\alpha_{n-1}\cdot\lambda^{n-1}+\dotsb+\alpha_1\cdot\lambda+\alpha_0=0</math>
: <math>\lambda^n+\alpha_{n-1}\cdot\lambda^{n-1}+\dotsb+\alpha_1\cdot\lambda+\alpha_0=0</math>
über <math>K</math> sind die Eigenwerte. Da ein Polynom vom Grad <math>n</math> höchstens <math>n</math> Nullstellen hat, gibt es auch höchstens <math>n</math> Eigenwerte. Zerfällt das Polynom vollständig, so gibt es genau <math>n</math> Nullstellen, wobei mehrfache Nullstellen mit ihrer Vielfachheit gezählt werden.
über <math>K</math> sind die Eigenwerte. Da ein Polynom vom Grad <math>n</math> höchstens <math>n</math> Nullstellen hat, gibt es auch höchstens <math>n</math> Eigenwerte. Zerfällt das Polynom vollständig, so gibt es genau <math>n</math> Nullstellen, wobei mehrfache Nullstellen mit ihrer Vielfachheit gezählt werden.


=== Eigenraum zum Eigenwert ===
=== Eigenraum zum Eigenwert ===
Ist <math>\lambda</math> ein Eigenwert der linearen Abbildung <math>f\colon V \to V,</math> dann nennt man die Menge aller Eigenvektoren zu diesem Eigenwert vereinigt mit dem Nullvektor den [[Eigenraum]] zum Eigenwert <math>\lambda.</math> Der Eigenraum ist durch
Ist <math>\lambda</math> ein Eigenwert der linearen Abbildung <math>f\colon V \to V,</math> dann nennt man die Menge aller Eigenvektoren zu diesem Eigenwert vereinigt mit dem Nullvektor den [[Eigenraum]] zum Eigenwert <math>\lambda.</math> Der Eigenraum ist durch
:<math>\mathrm{Eig} (f, \lambda) := \{v \in V \,|\, f(v) = \lambda \cdot v \}</math>
: <math>\mathrm{Eig} (f, \lambda) := \{v \in V \,|\, f(v) = \lambda \cdot v \}</math>
definiert. Falls die [[Dimension (Mathematik)|Dimension]] des Eigenraums größer als 1 ist, wenn es also mehr als einen [[Lineare Unabhängigkeit|linear unabhängigen]] Eigenvektor zum Eigenwert <math>\lambda</math> gibt, so nennt man den zum Eigenraum zugehörigen Eigenwert ''entartet''.<ref name="GoldhornHeinz2010" /> Die [[Dimension (Mathematik)|Dimension]] des Eigenraums <math>\mathrm{Eig} \left (f, \lambda\right)</math> wird als ''geometrische Vielfachheit'' von <math>\lambda</math> bezeichnet.
definiert. Falls die [[Dimension (Mathematik)|Dimension]] des Eigenraums größer als 1 ist, wenn es also mehr als einen [[Lineare Unabhängigkeit|linear unabhängigen]] Eigenvektor zum Eigenwert <math>\lambda</math> gibt, so nennt man den zum Eigenraum zugehörigen Eigenwert ''entartet''.<ref name="GoldhornHeinz2010" /> Die [[Dimension (Mathematik)|Dimension]] des Eigenraums <math>\mathrm{Eig} \left (f, \lambda\right)</math> wird als ''geometrische Vielfachheit'' von <math>\lambda</math> bezeichnet.


Zeile 55: Zeile 55:


Die Menge der Eigenwerte wird ''Spektrum'' genannt und <math>\sigma\left(A\right)</math> geschrieben, sodass also
Die Menge der Eigenwerte wird ''Spektrum'' genannt und <math>\sigma\left(A\right)</math> geschrieben, sodass also
:<math>\sigma(A)=\{\lambda\in\mathbb{C}\,|\,\exists x\neq 0\colon Ax =\lambda x\}</math>
: <math>\sigma(A)=\{\lambda\in\mathbb{C}\,|\,\exists x\neq 0\colon Ax =\lambda x\}</math>
gilt. Als [[Spektralradius]] bezeichnet man den größten Betrag aller Eigenwerte.
gilt. Als [[Spektralradius]] bezeichnet man den größten Betrag aller Eigenwerte.


Zeile 64: Zeile 64:
==== Beispiel ====
==== Beispiel ====
Es sei die quadratische Matrix
Es sei die quadratische Matrix
:<math>A=\begin{pmatrix}0 & 2 & -1 \\
: <math>A=\begin{pmatrix}0 & 2 & -1 \\
2 & -1 & 1 \\
2 & -1 & 1 \\
2 & -1 & 3
2 & -1 & 3
Zeile 70: Zeile 70:
</math>
</math>
gegeben. Subtraktion der mit <math>\lambda</math> multiplizierten [[Einheitsmatrix]] von <math>A</math> ergibt:
gegeben. Subtraktion der mit <math>\lambda</math> multiplizierten [[Einheitsmatrix]] von <math>A</math> ergibt:
:<math>
: <math>
A-\lambda E =
A-\lambda E =
\begin{pmatrix}
\begin{pmatrix}
Zeile 79: Zeile 79:
</math>
</math>
Ausrechnen der [[Determinante (Mathematik)|Determinante]] dieser Matrix (mit Hilfe der [[Regel von Sarrus]]) liefert:
Ausrechnen der [[Determinante (Mathematik)|Determinante]] dieser Matrix (mit Hilfe der [[Regel von Sarrus]]) liefert:
:<math>\begin{matrix}\det(A-\lambda E)&=&(0-\lambda)(-1-\lambda)(3-\lambda)+4+2-(2\lambda+2+\lambda +12- 4\lambda) \\ &=&-\lambda^3+2\lambda^2+4\lambda-8 \\ &=&-(\lambda-2)(\lambda-2)(\lambda+2) \end{matrix}</math>
: <math>\begin{matrix}\det(A-\lambda E)&=&(0-\lambda)(-1-\lambda)(3-\lambda)+4+2-(2\lambda+2+\lambda +12- 4\lambda) \\ &=&-\lambda^3+2\lambda^2+4\lambda-8 \\ &=&-(\lambda-2)(\lambda-2)(\lambda+2) \end{matrix}</math>
Die Eigenwerte sind die Nullstellen dieses Polynoms, man erhält:
Die Eigenwerte sind die Nullstellen dieses Polynoms, man erhält:
:<math>\lambda_{1,2}=2,\ \lambda_3=-2</math>
: <math>\lambda_{1,2}=2,\ \lambda_3=-2</math>
Der Eigenwert 2 hat algebraische Vielfachheit 2, weil er doppelte Nullstelle des charakteristischen Polynoms ist.
Der Eigenwert 2 hat algebraische Vielfachheit 2, weil er doppelte Nullstelle des charakteristischen Polynoms ist.


Zeile 106: Zeile 106:
=== Algorithmus ===
=== Algorithmus ===
Für einen Eigenwert <math>\lambda</math> lassen sich die Eigenvektoren aus der Gleichung
Für einen Eigenwert <math>\lambda</math> lassen sich die Eigenvektoren aus der Gleichung
:<math>(A-\lambda E) \cdot x = 0</math>
: <math>(A-\lambda E) \cdot x = 0</math>
bestimmen. Die Eigenvektoren spannen den [[Eigenraum]] auf, dessen Dimension als ''geometrische Vielfachheit'' des Eigenwertes bezeichnet wird. Für einen Eigenwert <math>\lambda</math> der geometrischen Vielfachheit <math>\mu</math> lassen sich also <math>\mu</math> linear unabhängige Eigenvektoren <math>x_1, \ldots ,x_\mu</math> finden, sodass die Menge aller Eigenvektoren zu <math>\lambda</math> gleich der Menge der [[Linearkombination]]en von <math>x_1, \ldots ,x_\mu</math> ist. Die Menge <math>\left\{x_1, \ldots ,x_\mu\right\}</math> heißt dann eine ''Basis aus Eigenvektoren'' des zum Eigenwert <math>\lambda</math> gehörenden Eigenraumes.
bestimmen. Die Eigenvektoren spannen den [[Eigenraum]] auf, dessen Dimension als ''geometrische Vielfachheit'' des Eigenwertes bezeichnet wird. Für einen Eigenwert <math>\lambda</math> der geometrischen Vielfachheit <math>\mu</math> lassen sich also <math>\mu</math> linear unabhängige Eigenvektoren <math>x_1, \ldots ,x_\mu</math> finden, sodass die Menge aller Eigenvektoren zu <math>\lambda</math> gleich der Menge der [[Linearkombination]]en von <math>x_1, \ldots ,x_\mu</math> ist. Die Menge <math>\left\{x_1, \ldots ,x_\mu\right\}</math> heißt dann eine ''Basis aus Eigenvektoren'' des zum Eigenwert <math>\lambda</math> gehörenden Eigenraumes.


Zeile 115: Zeile 115:
=== Beispiel ===
=== Beispiel ===
Gegeben ist wie in obigem Beispiel die quadratische Matrix
Gegeben ist wie in obigem Beispiel die quadratische Matrix
:<math>A=\begin{pmatrix}0 & 2 & -1 \\ 2 & -1 & 1 \\ 2 & -1 & 3 \end{pmatrix}.</math>
: <math>A=\begin{pmatrix}0 & 2 & -1 \\ 2 & -1 & 1 \\ 2 & -1 & 3 \end{pmatrix}.</math>
Die Eigenwerte <math>\lambda_{1,2}=2 ,\ \lambda_3=-2</math> wurden oben schon berechnet. Zunächst werden hier die Eigenvektoren (und der durch die Eigenvektoren aufgespannte [[Eigenraum]]) zum Eigenwert <math>\lambda=2</math> berechnet:
Die Eigenwerte <math>\lambda_{1,2}=2 ,\ \lambda_3=-2</math> wurden oben schon berechnet. Zunächst werden hier die Eigenvektoren (und der durch die Eigenvektoren aufgespannte [[Eigenraum]]) zum Eigenwert <math>\lambda=2</math> berechnet:
:<math>
: <math>
A - 2 \cdot E =
A - 2 \cdot E =
\begin{pmatrix}
\begin{pmatrix}
Zeile 126: Zeile 126:
</math>
</math>
Man muss also das folgende lineare Gleichungssystem lösen:
Man muss also das folgende lineare Gleichungssystem lösen:
:<math>
: <math>
\begin{pmatrix}
\begin{pmatrix}
-2 & 2 & -1 \\
-2 & 2 & -1 \\
Zeile 134: Zeile 134:
</math>
</math>
Bringt man die Matrix auf obere [[Lineares Gleichungssystem#Dreiecksform|Dreiecksform]], so erhält man
Bringt man die Matrix auf obere [[Lineares Gleichungssystem#Dreiecksform|Dreiecksform]], so erhält man
:<math>
: <math>
\begin{pmatrix}
\begin{pmatrix}
1 & 0 & \frac{1}{2} \\
1 & 0 & \frac{1}{2} \\
Zeile 141: Zeile 141:
\end{pmatrix} \cdot x= \begin{pmatrix}0\\ 0\\ 0 \end{pmatrix}.
\end{pmatrix} \cdot x= \begin{pmatrix}0\\ 0\\ 0 \end{pmatrix}.
</math>
</math>
Die gesuchten Eigenvektoren sind alle Vielfachen des Vektors <math>x=\begin{pmatrix}\frac{1}{2}, & 0, & -1 \end{pmatrix}^\top</math> (jedoch nicht das Nullfache des Vektors, da der Nullvektor niemals ein Eigenvektor ist).
Die gesuchten Eigenvektoren sind alle Vielfachen des Vektors <math>x=\begin{pmatrix}\frac{1}{2}, & 0, & -1 \end{pmatrix}^\top</math> (jedoch nicht das Nullfache des Vektors, da der Nullvektor niemals ein Eigenvektor ist).


Obwohl der Eigenwert <math>\lambda=2</math> eine algebraische Vielfachheit von 2 hat, existiert ''nur ein'' linear unabhängiger Eigenvektor (der Eigenraum zu dem Eigenwert ist ''ein''dimensional); also hat dieser Eigenwert eine geometrische Vielfachheit von 1. Das hat eine wichtige Konsequenz: Die Matrix ist nicht [[Diagonalisierbar#Diagonalisierbarkeit|diagonalisierbar]]. Man kann nun versuchen, die Matrix stattdessen in die [[Jordansche Normalform]] überzuführen. Dazu muss ein weiterer Eigenvektor zu diesem Eigenwert „erzwungen“ werden. Solche Eigenvektoren nennt man [[Generalisierter Eigenvektor|generalisierte Eigenvektoren]] oder [[Hauptvektor]]en.
Obwohl der Eigenwert <math>\lambda=2</math> eine algebraische Vielfachheit von 2 hat, existiert ''nur ein'' linear unabhängiger Eigenvektor (der Eigenraum zu dem Eigenwert ist ''ein''dimensional); also hat dieser Eigenwert eine geometrische Vielfachheit von 1. Das hat eine wichtige Konsequenz: Die Matrix ist nicht [[Diagonalisierbar#Diagonalisierbarkeit|diagonalisierbar]]. Man kann nun versuchen, die Matrix stattdessen in die [[Jordansche Normalform]] überzuführen. Dazu muss ein weiterer Eigenvektor zu diesem Eigenwert „erzwungen“ werden. Solche Eigenvektoren nennt man [[Generalisierter Eigenvektor|generalisierte Eigenvektoren]] oder [[Hauptvektor]]en.


Für den Eigenwert <math>\lambda=-2</math> geht man genauso vor:
Für den Eigenwert <math>\lambda=-2</math> geht man genauso vor:
:<math>
: <math>
\begin{pmatrix}
\begin{pmatrix}
2 & 2 & -1 \\
2 & 2 & -1 \\
Zeile 154: Zeile 154:
</math>
</math>
Wieder bringt man die Matrix auf Dreiecksform:
Wieder bringt man die Matrix auf Dreiecksform:
:<math>
: <math>
\begin{pmatrix}
\begin{pmatrix}
1 & 0 & \frac{3}{2} \\
1 & 0 & \frac{3}{2} \\
Zeile 167: Zeile 167:
* Sind <math>\lambda_i</math> die Eigenwerte der Matrix <math>A\in\mathbb{C}^{n \times n},</math> so gilt
* Sind <math>\lambda_i</math> die Eigenwerte der Matrix <math>A\in\mathbb{C}^{n \times n},</math> so gilt
::<math>\sum_{i=1}^n \lambda_i = \operatorname{Spur} \; A </math> und <math> \prod_{i=1}^n \lambda_i = \operatorname{det} \; A,</math>
::<math>\sum_{i=1}^n \lambda_i = \operatorname{Spur} \; A </math> und <math> \prod_{i=1}^n \lambda_i = \operatorname{det} \; A,</math>
:wobei bei mehrfachen Eigenwerten die Vielfachheit zu beachten ist.
: wobei bei mehrfachen Eigenwerten die Vielfachheit zu beachten ist.
* Das [[Eigenwertproblem#Spektrum und Vielfachheiten|Spektrum]] einer Matrix <math>A</math> ist gleich dem Spektrum der transponierten Matrix, also:
* Das [[#Spektrum und Vielfachheiten|Spektrum]] einer Matrix <math>A</math> ist gleich dem Spektrum der transponierten Matrix, also:
::<math>\sigma\left(A\right) = \sigma\left(A^\top\right).</math>
::<math>\sigma\left(A\right) = \sigma\left(A^\top\right).</math>
:Analog gilt
: Analog gilt
::<math>\sigma\left(A^*\right) = \sigma\left(\overline{A}\right) = \overline{\sigma\left(A\right)}.</math>
::<math>\sigma\left(A^*\right) = \sigma\left(\overline{A}\right) = \overline{\sigma\left(A\right)}.</math>
* Jede quadratische Matrix <math>A</math> über dem Körper <math>\mathbb{C}</math> der komplexen Zahlen ist [[Ähnlichkeit (Matrix)|ähnlich]] zu einer oberen [[Dreiecksmatrix]] <math>B.</math> Die Eigenwerte von <math>A</math> sind genau die Diagonaleinträge der Matrix <math>B.</math>
* Jede quadratische Matrix <math>A</math> über dem Körper <math>\mathbb{C}</math> der komplexen Zahlen ist [[Ähnlichkeit (Matrix)|ähnlich]] zu einer oberen [[Dreiecksmatrix]] <math>B.</math> Die Eigenwerte von <math>A</math> sind genau die Diagonaleinträge der Matrix <math>B.</math>
Zeile 177: Zeile 177:
Speziell für reelle [[Symmetrische Matrix|symmetrische]] oder komplexe [[Hermitesche Matrix|hermitesche Matrizen]] gilt:
Speziell für reelle [[Symmetrische Matrix|symmetrische]] oder komplexe [[Hermitesche Matrix|hermitesche Matrizen]] gilt:


* Alle Eigenwerte sind stets [[Reelle Zahlen|reell]]. Im Rahmen der [[Hauptachsentransformation]] werden die Eigenwerte auch ''Hauptwerte'' genannt.<ref name="KreissigBenedix2002">{{Literatur|Autor=Reiner Kreissig, Ulrich Benedix|Titel=Höhere technische Mechanik: Lehr- und Übungsbuch|Online={{Google Buch|BuchID=BvG7A7sCBzoC|Seite=12}}|jahr=2002|Verlag=Springer DE|ISBN=978-3-7091-6135-7|Seite=12}}</ref> Ist die Matrix zudem [[positiv definit]], so sind auch ihre Eigenwerte echt positiv.
* Alle Eigenwerte sind stets [[Reelle Zahlen|reell]]. Im Rahmen der [[Hauptachsentransformation]] werden die Eigenwerte auch ''Hauptwerte'' genannt.<ref name="KreissigBenedix2002">{{Literatur|Autor=Reiner Kreissig, Ulrich Benedix|Titel=Höhere technische Mechanik: Lehr- und Übungsbuch|Verlag=Springer DE|Jahr=2002|ISBN=978-3-7091-6135-7|Seiten=12|Online={{Google Buch|BuchID=BvG7A7sCBzoC|Seite=12}}}}</ref> Ist die Matrix zudem [[positiv definit]], so sind auch ihre Eigenwerte echt positiv.
* Es lässt sich immer eine [[Orthonormalbasis]] aus Eigenvektoren angeben.<ref name="tuebingen" /> Dies ist eine direkte Folgerung aus dem [[Spektralsatz]]. Insbesondere sind Eigenvektoren zu verschiedenen Eigenwerten [[Orthogonalität|zueinander orthogonal]].
* Es lässt sich immer eine [[Orthonormalbasis]] aus Eigenvektoren angeben.<ref name="tuebingen" /> Dies ist eine direkte Folgerung aus dem [[Spektralsatz]]. Insbesondere sind Eigenvektoren zu verschiedenen Eigenwerten [[Orthogonalität|zueinander orthogonal]].
* Die aus den [[Vorzeichen (Zahl)|Vorzeichen]] der Eigenwerte ermittelte [[Signatur (lineare Algebra)|Signatur]] der Matrix bleibt nach dem [[Trägheitssatz von Sylvester]] unter [[Kongruenz (Matrix)|Kongruenztransformationen]] erhalten.
* Die aus den [[Vorzeichen (Zahl)|Vorzeichen]] der Eigenwerte ermittelte [[Signatur (lineare Algebra)|Signatur]] der Matrix bleibt nach dem [[Trägheitssatz von Sylvester]] unter [[Kongruenz (Matrix)|Kongruenztransformationen]] erhalten.
Zeile 186: Zeile 186:


Kommutieren zwei Matrizen <math>A</math> und <math>B</math> (gilt also <math>AB=BA</math>) und ist <math>\lambda</math> ein nichtentarteter Eigenwert (d.&nbsp;h. der zugehörige Eigenraum ist eindimensional) von <math>A</math> mit Eigenvektor <math>v,</math> so gilt
Kommutieren zwei Matrizen <math>A</math> und <math>B</math> (gilt also <math>AB=BA</math>) und ist <math>\lambda</math> ein nichtentarteter Eigenwert (d.&nbsp;h. der zugehörige Eigenraum ist eindimensional) von <math>A</math> mit Eigenvektor <math>v,</math> so gilt
:<math>ABv=BAv=\lambda Bv.</math>
: <math>ABv=BAv=\lambda Bv.</math>
Auch <math>Bv</math> ist also ein Eigenvektor von <math>A</math> zum Eigenwert <math>\lambda.</math> Da dieser Eigenwert nicht entartet ist, muss <math>Bv</math> ein Vielfaches von <math>v</math> sein. Das bedeutet, dass <math>v</math> auch ein Eigenvektor der Matrix <math>B</math> ist.
Auch <math>Bv</math> ist also ein Eigenvektor von <math>A</math> zum Eigenwert <math>\lambda.</math> Da dieser Eigenwert nicht entartet ist, muss <math>Bv</math> ein Vielfaches von <math>v</math> sein. Das bedeutet, dass <math>v</math> auch ein Eigenvektor der Matrix <math>B</math> ist.


Zeile 195: Zeile 195:
== Linkseigenvektoren und verallgemeinertes Eigenwertproblem ==
== Linkseigenvektoren und verallgemeinertes Eigenwertproblem ==
Manchmal bezeichnet man einen so definierten Eigenvektor auch als ''Rechtseigenvektor'' und definiert dann entsprechend den Begriff des ''Linkseigenvektors'' durch die Gleichung
Manchmal bezeichnet man einen so definierten Eigenvektor auch als ''Rechtseigenvektor'' und definiert dann entsprechend den Begriff des ''Linkseigenvektors'' durch die Gleichung
:<math>x^\top \cdot A= \lambda \, x^\top.</math>
: <math>x^\top \cdot A= \lambda \, x^\top.</math>
Linkseigenvektoren finden sich z.&nbsp;B. in der Stochastik bei der Berechnung von [[Stationäre Verteilung|stationären Verteilungen]] von [[Markow-Kette]]n mittels einer [[Übergangsmatrix]].
Linkseigenvektoren finden sich z.&nbsp;B. in der Stochastik bei der Berechnung von [[Stationäre Verteilung|stationären Verteilungen]] von [[Markow-Kette]]n mittels einer [[Übergangsmatrix]].


Zeile 202: Zeile 202:


Allgemeiner kann man auch quadratische Matrizen <math>A</math> und <math>B</math> und die Gleichung
Allgemeiner kann man auch quadratische Matrizen <math>A</math> und <math>B</math> und die Gleichung
:<math>A \cdot x = \lambda \, B \cdot x</math>
: <math>A \cdot x = \lambda \, B \cdot x</math>
untersuchen. Dieses [[Verallgemeinertes Eigenwertproblem|verallgemeinerte Eigenwertproblem]] wird hier jedoch nicht weiter betrachtet.
untersuchen. Dieses [[Verallgemeinertes Eigenwertproblem|verallgemeinerte Eigenwertproblem]] wird hier jedoch nicht weiter betrachtet.


Zeile 213: Zeile 213:
=== Beispiel ===
=== Beispiel ===
Sei <math>\Omega \subset \R</math> offen. Dann besitzt der [[Differentialrechnung|Ableitungsoperator]] <math>\tfrac{d}{d x}\colon C^\infty(\Omega,\C) \to C^\infty(\Omega,\C)</math> ein nichtleeres Punktspektrum. Betrachtet man nämlich für alle <math>x \in \Omega</math> die Gleichung
Sei <math>\Omega \subset \R</math> offen. Dann besitzt der [[Differentialrechnung|Ableitungsoperator]] <math>\tfrac{d}{d x}\colon C^\infty(\Omega,\C) \to C^\infty(\Omega,\C)</math> ein nichtleeres Punktspektrum. Betrachtet man nämlich für alle <math>x \in \Omega</math> die Gleichung
:<math>\frac{d f}{d x}(x) = \lambda f(x)</math>
: <math>\frac{d f}{d x}(x) = \lambda f(x)</math>
und wählt <math>f(x) = e^{\lambda x},</math> dann sieht man, dass die Gleichung <math>\tfrac{d}{d x}e^{\lambda x} = \lambda e^{\lambda x}</math> für alle <math>\lambda \in \C</math> erfüllt ist. Also ist jedes <math>\lambda\in\C</math> ein Eigenwert mit zugehöriger Eigenfunktion <math>e^{\lambda x}.</math>
und wählt <math>f(x) = e^{\lambda x},</math> dann sieht man, dass die Gleichung <math>\tfrac{d}{d x}e^{\lambda x} = \lambda e^{\lambda x}</math> für alle <math>\lambda \in \C</math> erfüllt ist. Also ist jedes <math>\lambda\in\C</math> ein Eigenwert mit zugehöriger Eigenfunktion <math>e^{\lambda x}.</math>


Zeile 248: Zeile 248:
== Einzelnachweise ==
== Einzelnachweise ==
<references>
<references>
<ref name="Hilberts">
<ref name="Hilberts">[http://faql.de/etymologie.html#eigen FAQL.de], abgerufen am 10. Juni 2013, zitiert David Hilberts Artikel ''Grundzüge einer allgemeinen Theorie der linearen Integralgleichungen'', veröffentlicht 1904 in den ''Nachrichten von der Königlichen Gesellschaft der Wissenschaften zu Göttingen, mathematisch-physikalische Klasse''.</ref>
[http://faql.de/etymologie.html#eigen FAQL.de], abgerufen am 10. Juni 2013, zitiert David Hilberts Artikel ''Grundzüge einer allgemeinen Theorie der linearen Integralgleichungen'', veröffentlicht 1904 in den ''Nachrichten von der Königlichen Gesellschaft der Wissenschaften zu Göttingen, mathematisch-physikalische Klasse''.

</ref>
<ref name="Kowalsky">{{Literatur | Autor=Hans-Joachim Kowalsky, Gerhard O. Michler | Titel=Lineare Algebra | Auflage=12| Verlag=Walter de Gruyter | Ort=Berlin | Jahr=2003 | ISBN=3-11-017963-6 |Seiten=121 }}</ref>
<ref name="Kowalsky">

{{Literatur
<ref name="Joshi1995">{{cite book|author=A. W. Joshi|title=Matrices and tensors in physics|url=http://books.google.com/books?id=FesDylvUy00C|accessdate=29. Februar 2012|year=1995|publisher=New Age International|isbn=978-81-224-0563-7|page=117}}</ref>
|Autor=Hans-Joachim Kowalsky, Gerhard O. Michler

|Titel=Lineare Algebra
<ref name="tuebingen">[http://mfb.informatik.uni-tuebingen.de/book/node221.html Uni Tübingen ''Symmetrische Abbildungen und Matrizen''Theorem&nbsp;10.75], abgerufen am 19.&nbsp;Februar 2007.</ref>
|Auflage=12

|Verlag=Walter de Gruyter
<ref name="GoldhornHeinz2010">{{cite book|author1=Karl-Heinz Goldhorn|author2=Hans-Peter Heinz|author3=Margarita Kraus|title=Moderne mathematische Methoden der Physik|url=http://books.google.com/books?id=eRuoVwjjRF0C&pg=PA87|accessdate=29.&nbsp;Februar 2012|date=9.&nbsp;September 2010|publisher=Springer|isbn=978-3-642-05184-5|page=87}}</ref>
|Ort=Berlin
|Jahr=2003
|ISBN=3-11-017963-6
|Seiten=121}}
</ref>
<ref name="Joshi1995">
{{cite book|author=A. W. Joshi|title=Matrices and tensors in physics|url=http://books.google.com/books?id=FesDylvUy00C|accessdate=29. Februar 2012|year=1995|publisher=New Age International|isbn=978-81-224-0563-7|page=117}}
</ref>
<ref name="tuebingen">
[http://mfb.informatik.uni-tuebingen.de/book/node221.html ''Symmetrische Abbildungen und Matrizen'' Theorem&nbsp;10.75] Uni Tübingen, abgerufen am 19.&nbsp;Februar 2007.
</ref>
<ref name="GoldhornHeinz2010">
{{cite book|author1=Karl-Heinz Goldhorn|author2=Hans-Peter Heinz|author3=Margarita Kraus|title=Moderne mathematische Methoden der Physik|url=http://books.google.com/books?id=eRuoVwjjRF0C&pg=PA87|accessdate=29.&nbsp;Februar 2012|date=9.&nbsp;September 2010|publisher=Springer|isbn=978-3-642-05184-5|page=87}}
</ref>
</references>
</references>



Version vom 26. Februar 2015, 00:17 Uhr

In dieser Scherung der Mona Lisa wurde das Bild so verformt, dass der rote Pfeil (Vektor) seine Richtung (entlang der vertikalen Achse) nicht geändert hat, der blaue Pfeil jedoch schon. Der rote Vektor ist ein Eigenvektor der Scherabbildung, während der blaue Vektor dies aufgrund seiner Richtungsänderung nicht ist. Da der rote Vektor nicht skaliert wird, ist sein zugehöriger Eigenwert 1.

Ein Eigenvektor einer Abbildung ist in der linearen Algebra ein vom Nullvektor verschiedener Vektor, dessen Richtung durch die Abbildung nicht verändert wird. Ein Eigenvektor wird also nur skaliert und man bezeichnet den Skalierungsfaktor als Eigenwert der Abbildung.

Eigenwerte charakterisieren wesentliche Eigenschaften linearer Abbildungen, etwa ob ein entsprechendes lineares Gleichungssystem eindeutig lösbar ist oder nicht. In vielen Anwendungen beschreiben Eigenwerte auch physikalische Eigenschaften eines mathematischen Modells. Die Verwendung der Vorsilbe „Eigen-“ für charakteristische Größen in diesem Sinne lässt sich auf eine Veröffentlichung von David Hilbert aus dem Jahre 1904 zurückführen.[1]

Die im Folgenden beschriebene mathematische Problemstellung heißt spezielles Eigenwertproblem und bezieht sich nur auf lineare Abbildungen eines endlichdimensionalen Vektorraums in sich (Endomorphismen), wie sie durch quadratische Matrizen dargestellt werden.

Die Frage, die sich hier stellt, lautet: Unter welchen Bedingungen ist eine Matrix ähnlich zu einer Diagonalmatrix?[2]

Definition

Ist ein Vektorraum über einem Körper (in Anwendungen meist der Körper der reellen Zahlen oder der Körper der komplexen Zahlen) und eine lineare Abbildung von in sich selbst (Endomorphismus), so bezeichnet man als Eigenvektor einen Vektor , der durch auf ein Vielfaches von sich selbst mit abgebildet wird:

Den Faktor nennt man dann den zugehörigen Eigenwert.

Anders formuliert: Hat für ein die Gleichung

eine Lösung (der Nullvektor ist natürlich immer eine Lösung), so heißt Eigenwert von Jede Lösung heißt Eigenvektor von zum Eigenwert

Hat der Vektorraum eine endliche Dimension so kann jeder Endomorphismus durch eine quadratische beschrieben werden. Die obige Gleichung lässt sich dann als Matrizengleichung

schreiben, wobei hier einen Spaltenvektor bezeichnet. Man nennt in diesem Fall eine Lösung Eigenvektor und Eigenwert der Matrix

Diese Gleichung kann man auch in der Form

schreiben, wobei die Einheitsmatrix bezeichnet, und äquivalent zu

oder

umformen.

Berechnung der Eigenwerte

Bei kleinen Matrizen können die Eigenwerte symbolisch (exakt) berechnet werden. Bei großen Matrizen ist dies oft nicht möglich, sodass hier Verfahren der numerischen Mathematik zum Einsatz kommen.

Symbolische Berechnung

Die Gleichung

definiert die Eigenwerte und stellt ein homogenes lineares Gleichungssystem dar. Da vorausgesetzt wird, ist dieses genau dann lösbar, wenn

gilt. Diese Determinante heißt „charakteristisches Polynom“. Es handelt sich um ein normiertes Polynom -ten Grades in Seine Nullstellen, also die Lösungen der Gleichung

über sind die Eigenwerte. Da ein Polynom vom Grad höchstens Nullstellen hat, gibt es auch höchstens Eigenwerte. Zerfällt das Polynom vollständig, so gibt es genau Nullstellen, wobei mehrfache Nullstellen mit ihrer Vielfachheit gezählt werden.

Eigenraum zum Eigenwert

Ist ein Eigenwert der linearen Abbildung dann nennt man die Menge aller Eigenvektoren zu diesem Eigenwert vereinigt mit dem Nullvektor den Eigenraum zum Eigenwert Der Eigenraum ist durch

definiert. Falls die Dimension des Eigenraums größer als 1 ist, wenn es also mehr als einen linear unabhängigen Eigenvektor zum Eigenwert gibt, so nennt man den zum Eigenraum zugehörigen Eigenwert entartet.[3] Die Dimension des Eigenraums wird als geometrische Vielfachheit von bezeichnet.

Eine Verallgemeinerung des Eigenraums ist der Hauptraum.

Spektrum und Vielfachheiten

Für den Rest dieses Abschnittes sei Dann besitzt jede genau Eigenwerte, wenn man diese mit ihren Vielfachheiten zählt. Mehrfaches Vorkommen eines bestimmten Eigenwertes fasst man zusammen und erhält so nach Umbenennung die Aufzählung der verschiedenen Eigenwerte mit ihren Vielfachheiten Dabei ist und

Die eben dargestellte Vielfachheit eines Eigenwertes als Nullstelle des charakteristischen Polynoms bezeichnet man als algebraische Vielfachheit.

Die Menge der Eigenwerte wird Spektrum genannt und geschrieben, sodass also

gilt. Als Spektralradius bezeichnet man den größten Betrag aller Eigenwerte.

Gilt für einen Eigenwert, dass seine algebraische Vielfachheit gleich seiner geometrischen Vielfachheit ist, so spricht man von einem halbeinfachen Eigenwert (aus dem englischen ‚semisimple‘). Dies entspricht genau der Diagonalisierbarkeit der Blockmatrix zum gegebenen Eigenwert.

Kennt man die Eigenwerte sowie ihre algebraischen und geometrischen Vielfachheiten (siehe unten), kann man die Jordansche Normalform der Matrix erstellen.

Beispiel

Es sei die quadratische Matrix

gegeben. Subtraktion der mit multiplizierten Einheitsmatrix von ergibt:

Ausrechnen der Determinante dieser Matrix (mit Hilfe der Regel von Sarrus) liefert:

Die Eigenwerte sind die Nullstellen dieses Polynoms, man erhält:

Der Eigenwert 2 hat algebraische Vielfachheit 2, weil er doppelte Nullstelle des charakteristischen Polynoms ist.

Numerische Berechnung

Während die exakte Berechnung der Nullstellen des charakteristischen Polynoms schon für dreireihige Matrizen nicht so einfach ist, wird sie für große Matrizen meist unmöglich, sodass man sich dann auf das Bestimmen von Näherungswerten beschränkt. Hierzu werden Verfahren bevorzugt, die sich durch numerische Stabilität und geringen Rechenaufwand auszeichnen. Dazu gehören Methoden für dichtbesetzte kleine bis mittlere Matrizen, wie

sowie spezielle Methoden für symmetrische Matrizen, als auch Methoden für dünnbesetzte große Matrizen, wie

Des Weiteren gibt es noch Methoden zur Abschätzung, z. B. mithilfe

die immer eine grobe Abschätzung (unter gewissen Bedingungen sogar genaue Bestimmung) zulassen.

  • Die Folded Spectrum Method liefert mit jedem Durchlauf einen Eigenvektor, der jedoch auch aus der Mitte des Spektrums stammen kann.

Berechnung der Eigenvektoren

Algorithmus

Für einen Eigenwert lassen sich die Eigenvektoren aus der Gleichung

bestimmen. Die Eigenvektoren spannen den Eigenraum auf, dessen Dimension als geometrische Vielfachheit des Eigenwertes bezeichnet wird. Für einen Eigenwert der geometrischen Vielfachheit lassen sich also linear unabhängige Eigenvektoren finden, sodass die Menge aller Eigenvektoren zu gleich der Menge der Linearkombinationen von ist. Die Menge heißt dann eine Basis aus Eigenvektoren des zum Eigenwert gehörenden Eigenraumes.

Die geometrische Vielfachheit eines Eigenwertes kann man also auch als die maximale Anzahl linear unabhängiger Eigenvektoren zu diesem Eigenwert definieren.

Die geometrische Vielfachheit ist höchstens gleich der algebraischen Vielfachheit.

Beispiel

Gegeben ist wie in obigem Beispiel die quadratische Matrix

Die Eigenwerte wurden oben schon berechnet. Zunächst werden hier die Eigenvektoren (und der durch die Eigenvektoren aufgespannte Eigenraum) zum Eigenwert berechnet:

Man muss also das folgende lineare Gleichungssystem lösen:

Bringt man die Matrix auf obere Dreiecksform, so erhält man

Die gesuchten Eigenvektoren sind alle Vielfachen des Vektors (jedoch nicht das Nullfache des Vektors, da der Nullvektor niemals ein Eigenvektor ist).

Obwohl der Eigenwert eine algebraische Vielfachheit von 2 hat, existiert nur ein linear unabhängiger Eigenvektor (der Eigenraum zu dem Eigenwert ist eindimensional); also hat dieser Eigenwert eine geometrische Vielfachheit von 1. Das hat eine wichtige Konsequenz: Die Matrix ist nicht diagonalisierbar. Man kann nun versuchen, die Matrix stattdessen in die Jordansche Normalform überzuführen. Dazu muss ein weiterer Eigenvektor zu diesem Eigenwert „erzwungen“ werden. Solche Eigenvektoren nennt man generalisierte Eigenvektoren oder Hauptvektoren.

Für den Eigenwert geht man genauso vor:

Wieder bringt man die Matrix auf Dreiecksform:

Hier ist die Lösung der Vektor wieder mit allen seinen vom Nullvektor verschiedenen Vielfachen.

Eigenschaften

  • Ist ein Eigenwert der invertierbaren Matrix zum Eigenvektor so ist Eigenwert der inversen Matrix von zum Eigenvektor
  • Sind die Eigenwerte der Matrix so gilt
und
wobei bei mehrfachen Eigenwerten die Vielfachheit zu beachten ist.
  • Das Spektrum einer Matrix ist gleich dem Spektrum der transponierten Matrix, also:
Analog gilt
  • Jede quadratische Matrix über dem Körper der komplexen Zahlen ist ähnlich zu einer oberen Dreiecksmatrix Die Eigenwerte von sind genau die Diagonaleinträge der Matrix
  • Eigenvektoren zum Eigenwert 1 sind Fixpunkte in der Abbildungsgeometrie. Nach dem Satz vom Fußball gibt es beispielsweise zwei Punkte auf einem Fußball, die sich zu Beginn der ersten und der zweiten Halbzeit an der jeweils gleichen Stelle im Raum befinden.

Speziell für reelle symmetrische oder komplexe hermitesche Matrizen gilt:

Eigenvektoren kommutierender Matrizen

Für kommutierende diagonalisierbare (insbesondere symmetrische) Matrizen ist es möglich, ein System gemeinsamer Eigenvektoren zu finden:

Kommutieren zwei Matrizen und (gilt also ) und ist ein nichtentarteter Eigenwert (d. h. der zugehörige Eigenraum ist eindimensional) von mit Eigenvektor so gilt

Auch ist also ein Eigenvektor von zum Eigenwert Da dieser Eigenwert nicht entartet ist, muss ein Vielfaches von sein. Das bedeutet, dass auch ein Eigenvektor der Matrix ist.

Aus diesem einfachen Beweis geht hervor, dass die Eigenvektoren zu nichtentarteten Eigenwerten mehrerer paarweise kommutierender Matrizen Eigenvektoren aller dieser Matrizen sind.

Allgemein können auch für kommutierende diagonalisierbare Matrizen mit entarteten Eigenwerten gemeinsame Eigenvektoren gefunden werden.[6] Aus diesem Grund können mehrere paarweise kommutierende diagonalisierbare Matrizen auch simultan (d. h. mit einer Basistransformation für alle Matrizen) diagonalisiert werden.

Linkseigenvektoren und verallgemeinertes Eigenwertproblem

Manchmal bezeichnet man einen so definierten Eigenvektor auch als Rechtseigenvektor und definiert dann entsprechend den Begriff des Linkseigenvektors durch die Gleichung

Linkseigenvektoren finden sich z. B. in der Stochastik bei der Berechnung von stationären Verteilungen von Markow-Ketten mittels einer Übergangsmatrix.

Wegen sind die Linkseigenvektoren von gerade die Rechtseigenvektoren der transponierten Matrix Bei normalen Matrizen fallen Links- und Rechtseigenvektoren zusammen.

Allgemeiner kann man auch quadratische Matrizen und und die Gleichung

untersuchen. Dieses verallgemeinerte Eigenwertproblem wird hier jedoch nicht weiter betrachtet.

Spektraltheorie in der Funktionalanalysis

Eigenwerte und Eigenfunktionen

In der Funktionalanalysis betrachtet man lineare Abbildungen zwischen linearen Funktionenräumen (also lineare Abbildungen zwischen unendlichdimensionalen Vektorräumen). Meistens spricht man von linearen Operatoren anstatt von linearen Abbildungen. Sei ein Vektorraum über einem Körper mit und ein linearer Operator. In der Funktionalanalysis ordnet man ein Spektrum zu. Dieses besteht aus allen für die der Operator nicht invertierbar ist. Dieses Spektrum muss jedoch nicht - wie bei Abbildungen zwischen endlichdimensionalen Vektorräumen - diskret sein. Denn im Gegensatz zu den linearen Abbildungen zwischen endlichdimensionalen Vektorräumen, die nur verschiedene Eigenwerte haben, haben lineare Operatoren im Allgemeinen unendlich viele Elemente im Spektrum. Daher ist es zum Beispiel möglich, dass das Spektrum von linearen Operatoren Häufungspunkte besitzt. Um die Untersuchung des Operators und des Spektrums zu vereinfachen, unterteilt man das Spektrum in unterschiedliche Teilspektren. Elemente, die die Gleichung für ein lösen, nennt man wie in der linearen Algebra Eigenwerte. Die Gesamtheit der Eigenwerte nennt man das Punktspektrum von Wie in der linearen Algebra wird jedem Eigenwert ein Raum von Eigenvektoren zugeordnet. Da die Eigenvektoren meist als Funktionen aufgefasst werden, spricht man auch von Eigenfunktionen.

Beispiel

Sei offen. Dann besitzt der Ableitungsoperator ein nichtleeres Punktspektrum. Betrachtet man nämlich für alle die Gleichung

und wählt dann sieht man, dass die Gleichung für alle erfüllt ist. Also ist jedes ein Eigenwert mit zugehöriger Eigenfunktion

Praktische Beispiele

Durch Lösung eines Eigenwertproblems berechnet man

Eigenwerte spielen in der Quantenmechanik eine besondere Rolle. Physikalische Größen wie z. B. der Drehimpuls werden hier durch Operatoren repräsentiert. Messbar sind nur die Eigenwerte der Operatoren. Hat z. B. der Hamiltonoperator, der die Energie eines quantenmechanischen Systems repräsentiert, ein diskretes Spektrum, so kann die Energie nur diskrete Werte annehmen, was z. B. für die Energieniveaus in einem Atom typisch ist. So stellen bei den Lösungen der bekannten Schrödingergleichung (im Jahr 1926 durch den Physiker Erwin Schrödinger aufgestellt) die Eigenwerte die erlaubten Energiewerte der Elektronen und die Eigenfunktionen die zugehörigen Wellenfunktionen der Elektronen dar.

Auch die Unmöglichkeit der gleichzeitigen präzisen Messung gewisser Größen (z. B. von Ort und Impuls), wie von der Heisenbergschen Unschärferelation ausgedrückt, ist letztlich darauf zurückzuführen, dass für die jeweiligen Operatoren kein gemeinsames System von Eigenvektoren existiert.

Literatur

  • Kapitel: Eigenwerte und Eigenvektoren. Archiviert vom Original am 19. November 2012; abgerufen am 30. Oktober 2014. von Joachim Weickert, Mathematical Image Analysis Group der Universität des Saarlandes, (PDF; 66 kB)
  • MIT OpenCourseWare: Eigenvectors and Eigenvalues. Video der Vorlesung „Lineare Algebra“ von Gilbert Strang, MIT, 2000.
  • Z. Bai, J. Demmel, J. Dongarra, A. Ruhe, H. van der Vorst: Templates for the Solution of Algebraic Eigenvalue Problems: a Practical Guide. SIAM, Philadelphia, 2000. Sehr umfangreiches englisches Werk.
  • interaktive Applets – von der Uni Stuttgart. Spiegelung, Projektion, Scherung, Drehung

Einzelnachweise

  1. FAQL.de, abgerufen am 10. Juni 2013, zitiert David Hilberts Artikel Grundzüge einer allgemeinen Theorie der linearen Integralgleichungen, veröffentlicht 1904 in den Nachrichten von der Königlichen Gesellschaft der Wissenschaften zu Göttingen, mathematisch-physikalische Klasse.
  2. Hans-Joachim Kowalsky, Gerhard O. Michler: Lineare Algebra. 12. Auflage. Walter de Gruyter, Berlin 2003, ISBN 3-11-017963-6, S. 121.
  3. Karl-Heinz Goldhorn, Hans-Peter Heinz, Margarita Kraus: Moderne mathematische Methoden der Physik. Springer, 2010, ISBN 978-3-642-05184-5, S. 87 (google.com [abgerufen am 29. Februar 2012]).
  4. Reiner Kreissig, Ulrich Benedix: Höhere technische Mechanik: Lehr- und Übungsbuch. Springer DE, 2002, ISBN 978-3-7091-6135-7, S. 12 (eingeschränkte Vorschau in der Google-Buchsuche).
  5. Symmetrische Abbildungen und Matrizen Theorem 10.75 Uni Tübingen, abgerufen am 19. Februar 2007.
  6. A. W. Joshi: Matrices and tensors in physics. New Age International, 1995, ISBN 978-81-224-0563-7, S. 117 (google.com [abgerufen am 29. Februar 2012]).