Dieser Artikel ist ein Teilnehmer am Schreibwettbewerb

„Numerische lineare Algebra“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
[gesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
+ Prinzipien
Zeile 15: Zeile 15:
: <math>A \cdot \mathbf x = \lambda \mathbf x</math>
: <math>A \cdot \mathbf x = \lambda \mathbf x</math>
erfüllt ist. Man nennt dann <math>\mathbf x</math> einen Eigenvektor von <math>A</math> zum Eigenwert <math>\lambda</math>. Das Problem alle Eigenwerte und Eigenvektoren einer Matrix zu bestimmen ist gleichbedeutend damit sie zu [[Diagonalmatrix#Diagonalisierung|diagonalisieren]]. Das bedeutet: Man finde eine reguläre Matrix <math>S</math> und eine [[Diagonalmatrix]] <math>D</math> mit <math>S^{-1} \cdot A \cdot S = D</math>. Die Diagonaleinträge von <math>D</math> sind dann die Eigenwerte von <math>A</math> und die Spalten von <math>S</math> die zugehörigen Eigenvektoren.
erfüllt ist. Man nennt dann <math>\mathbf x</math> einen Eigenvektor von <math>A</math> zum Eigenwert <math>\lambda</math>. Das Problem alle Eigenwerte und Eigenvektoren einer Matrix zu bestimmen ist gleichbedeutend damit sie zu [[Diagonalmatrix#Diagonalisierung|diagonalisieren]]. Das bedeutet: Man finde eine reguläre Matrix <math>S</math> und eine [[Diagonalmatrix]] <math>D</math> mit <math>S^{-1} \cdot A \cdot S = D</math>. Die Diagonaleinträge von <math>D</math> sind dann die Eigenwerte von <math>A</math> und die Spalten von <math>S</math> die zugehörigen Eigenvektoren.

== Grundprinzipien ==

=== Fehleranalyse: Vektor- und Matrixnormen ===

Als Maße für die „Größe“ eines Vektors <math>\mathbf x = (x_i) \in \R^n</math> werden in der Mathematik unterschiedliche [[Vektornorm]]en verwendet. Am bekanntesten und verbreitetsten ist die [[euklidische Norm]]
: <math>\|\mathbf x\|_2 = \sqrt{\sum_{i=1}^n x_i^2} </math>,
also die Wurzel aus der Summe der Quadrate aller Vektorkomponenten. Bei der bekannten geometrischen Veranschaulichung von Vektoren als Pfeile im zwei- oder dreidimensionalen Raum entspricht dies gerade der Pfeillänge. Je nach untersuchter Fragestellung können jedoch auch andere Vektornormen wie etwa die [[Maximumsnorm]] <math>\|\mathbf x\|_{\infty}</math> oder die [[Summennorm|1-Norm]] <math>\|\mathbf x\|_1</math> geeigneter sein.

Sind <math>\mathbf x, \tilde\mathbf x \in \R^n</math> Vektoren, wobei <math>\tilde\mathbf x</math> als eine Näherung für <math>\mathbf x</math> aufgefasst werden soll, so lässt sich mithilfe einer Vektornorm <math>\| \cdot \|</math> die Genauigkeit dieser Näherung quantifizieren. Die Norm des Differenzvektors
: <math>\| \tilde\mathbf x - \mathbf x\|</math>
wird als ''(normweiser) absoluter Fehler'' bezeichnet. Betrachtet man den absoluten Fehler im Verhältnis zur Norm des „exakten“ Vektors <math>\mathbf x \neq \mathbf 0</math> erhält man den ''(normweisen) relativen Fehler''
: <math>\frac{\|\tilde\mathbf x - \mathbf x\|}{\|\mathbf x\|}</math>.
Da der relative Fehler nicht durch die [[Skalarmultiplikation|Skalierung]] von <math>\mathbf x</math> und <math>\tilde\mathbf x</math> beeinflusst wird, ist dieser das Standardmaß für den Unterschied der beiden Vektoren und wird oft auch vereinfacht nur als „Fehler“ bezeichnet.

Auch die „Größe“ von Matrizen wird mit [[Norm (Mathematik)|Normen]] gemessen, den [[Matrixnorm]]en. Für die Wahl einer Matrixnorm <math>\|A\|</math> ist es wesentlich, dass sie zur verwendeten Vektornorm „passt“, insbesondere soll die Ungleichung <math>\|A \mathbf x \| \leq \|A\| \|\mathbf x\|</math> für alle <math>\mathbf x</math> erfüllt sein. Definiert man <math>\|A\|</math> für eine gegebene Vektornorm als die kleinste Zahl <math>L</math>, sodass <math>\|A \mathbf x \| \leq L \|\mathbf x\|</math> für alle <math>\mathbf x</math> gilt, dann erhält man die sogenannte [[natürliche Matrixnorm]]. Für jede Vektornorm gibt es also eine davon induzierte natürliche Matrixnorm: Für die euklidische Norm ist das die [[Spektralnorm]] <math>\|A\|_2</math>, für die Maximumsnorm ist es die [[Zeilensummennorm]] <math>\|A\|_{\infty}</math> und für die 1-Norm die [[Spaltensummennorm]] <math>\|A\|_1</math>. Analog zu Vektoren kann mithilfe einer Matrixnorm der relative Fehler
: <math>\frac{\|\tilde A - A\|}{\|A\|}</math>
bei einer Näherung einer Matrix <math>A</math> durch eine Matrix <math>\tilde A</math> quantifiziert werden.<ref>{{Literatur | Autor=Wolfgang Dahmen, Arnold Reusken | Titel=Numerik für Ingenieure und Naturwissenschaftler | Auflage=2. | Verlag=Springer | Ort=Berlin/Heidelberg | Jahr=2008 | ISBN=978-3-540-76492-2 | Kapitel=2.5.1 ''Operatornormen, Konditionszahlen linearer
Abbildungen.'' | Seiten=26–34}}</ref>

=== Kondition und Stabilität ===

Bei Problemen aus der Praxis sind gegebene Größen meist mit Fehlern behaftet, den ''Datenfehlern''. Zum Beispiel kann bei einem linearen Gleichungssystem <math>A \mathbf x = \mathbf b</math> die gegebene rechte Seite <math>\mathbf b</math> aus einer [[Messung]] stammen und daher eine [[Messabweichung]] aufweisen. Aber auch bei theoretisch beliebig genau bekannten Größen lassen sich [[Rundungsfehler]] bei ihrer Darstellung im Computer als [[Gleitkommazahl]]en nicht vermeiden. Es muss also davon ausgegangen werden, dass anstelle des exakten Systems <math>A \mathbf x = \mathbf b</math> in Wirklichkeit ein System <math>A \tilde\mathbf x = \tilde\mathbf b</math> mit einer gestörten rechten Seite <math>\tilde\mathbf b</math> und dementsprechend einer „falschen“ Lösung <math>\tilde\mathbf x</math> vorliegt. Die grundlegende Frage ist nun, wie stark sich Störungen der gegebenen Größen auf Störungen der gesuchten Größen auswirken. Wenn der relative Fehler der Lösung nicht wesentlich größer ist als die relativen Fehler der Eingangsgrößen spricht man von einem ''[[Kondition (Mathematik)|gut konditionierten]]'', anderenfalls von einem ''schlecht konditionierten'' Problem. Für das Beispiel linearer Gleichungssysteme lässt sich hierzu die Abschätzung

: <math>\frac{\|\tilde\mathbf x - \mathbf x\|}{\|\mathbf x\|} \leq \|A\| \|A^{-1}\| \cdot \frac{\|\tilde\mathbf b - \mathbf b\|}{\|\mathbf b\|}</math>

beweisen. Das Problem ist also gut konditioniert, wenn <math>\|A\| \|A^{-1}\|</math>, das Produkt der Norm der Koeffizientenmatrix und der Norm ihrer [[Inverse Matrix|Inversen]], klein ist. Diese wichtige Kenngröße heißt [[Kondition (Mathematik)#Kondition von linearen Abbildungen|Konditionszahl]] der Matrix <math>A</math> und wird mit <math>\kappa(A)</math> bezeichnet. In realen Problemen wird meist nicht nur, wie hier dargestellt, die rechte Seite <math>\mathbf b</math> fehlerbehaftet sein, sondern auch die Matrix <math>A</math>. Dann gilt eine ähnliche, kompliziertere Abschätzung, in der aber ebenfalls <math>\kappa(A)</math> die wesentliche Kennzahl zur Bestimmung der Kondition des Problems bei kleinen Datenfehlern ist.<ref>{{Literatur | Autor=Hans Rudolf Schwarz, Norbert Köckler | Titel=Numerische Mathematik | Auflage=8. | Verlag=Vieweg+Teubner | Ort=Wiesbaden | Jahr=2011 | ISBN=978-3-8348-1551-4 | Seiten=53 f}}</ref>

Während die Kondition eine Eigenschaft des zu lösenden Problems ist, ist [[Stabilität (Numerik)|Stabilität]] eine Eigenschaft des dafür verwendeten Verfahrens. Ein numerischer Algorithmus liefert – auch bei exakt gedachten Eingangsdaten – im Allgemeinen nicht die exakte Lösung des Problems. Zum Beispiel muss ein iteratives Verfahren, das eine wahre Lösung schrittweise immer genauer annähert, nach endlich vielen Schritten mit der bis dahin erreichten Näherungslösung abbrechen. Aber auch bei direkten Verfahren, die theoretisch in endlich vielen Rechenschritten die exakte Lösung ergeben, kommt es bei der Umsetzung auf dem Computer bei jeder Rechenoperation zu Rundungsfehlern. In der numerischen Mathematik werden zwei unterschiedliche Stabilitätsbegriffe verwendet, die Vorwärtsstabilität und Rückwärtsstabilität. Sei dazu allgemein <math>u</math> eine Eingabegröße eines Problems und <math>v = f(u)</math> seine exakte Lösung, aufgefasst als Wert einer Funktion <math>f</math> angewendet auf <math>u</math>. Auch wenn man die Eingabegröße als exakt vorgegeben betrachtet, wird die Berechnung mit einem Algorithmus ein anderes, „falsches“ Ergebnis <math>\tilde v = \operatorname{alg}(u)</math> liefern, aufgefasst als Wert einer anderen, „falschen“ Funktion <math>\operatorname{alg}</math> ebenfalls angewendet auf <math>u</math>. Ein Algorithmus heißt ''vorwärtsstabil'', wenn sich <math>\tilde v</math> nicht wesentlich stärker von <math>v</math> unterscheidet, als es aufgrund der Fehler in der Eingangsgröße <math>u</math> und der Kondition des Problems sowieso zu erwarten wäre.
Mit einer formalen Definition dieses Begriffs erhält man zwar ein naheliegendes und relativ anschauliches Maß für die Stabilität, aber bei komplizierten Algorithmen ist es oft schwierig, ihre Vorwärtsstabilität zu untersuchen. Daher wird im Allgemeinen zunächst eine sogenannte Rückwärtsanalyse betrachtet: Dazu wird ein <math>\tilde u</math> bestimmt mit <math>\operatorname{alg}(u) = f(\tilde u)</math>, das heißt: Der durch das Verfahren berechnete „falsche“ Wert wird aufgefasst als „richtiger“ Wert, der aber mit einem anderen Wert der Eingabegröße berechnet wurde.<ref>{{Literatur | Autor=Wolfgang Dahmen, Arnold Reusken | Titel=Numerik für Ingenieure und Naturwissenschaftler | Auflage=2. | Verlag=Springer | Ort=Berlin/Heidelberg | Jahr=2008 | ISBN=978-3-540-76492-2 | Seiten=44}}</ref> Ein Algorithmus heißt ''rückwärtsstabil'', wenn sich <math>\tilde u</math> nicht wesentlich stärker von <math>u</math> unterscheidet, als es aufgrund der Fehler in dieser Eingangsgröße sowieso zu erwarten wäre.
Es lässt sich beweisen, dass ein rückwärtsstabiler Algorithmus auch vorwärtsstabil ist.<ref>{{Literatur | Autor=Peter Deuflhard, Andreas Hohmann | Titel=Numerische Mathematik 1 | Auflage=4. | Verlag=Walter de Gruyter | Ort=Berlin | Jahr=2008 | ISBN=978-3-11-020354-7 | Seiten=49 f}}</ref>

=== Orthogonalität und orthogonale Matrizen ===

Wie die lineare Algebra zeigt, besteht ein enger Zusammenhang zwischen Matrizen und [[Basis (Vektorraum)|Basen]] des Vektorraums <math>\R^n</math>. Sind <math>n</math> [[Lineare Unabhängigkeit|linear unabhängige]] Vektoren <math>\mathbf b_1, \dotsc, \mathbf b_n</math> im <math>\R^n</math> geben, so bilden diese eine Basis. Eine wichtigen Spezialfall bilden die [[Orthonormalbasis|Orthonormalbasen]]. Hierbei sind die Basisvektoren paarweise [[Orthogonalität|orthogonal]] zueinander („stehen senkrecht aufeinander“) und sind zudem alle auf [[Euklidische Norm|euklidische]] Länge 1 normiert, so wie die [[Standardbasis]] <math>(\mathbf e_1, \mathbf e_2, \mathbf e_3)</math> im dreidimensionalen Raum. Fasst man die Basisvektoren spaltenweise zu einer Matrix

: <math>(\mathbf b_1 | \cdots | \mathbf b_n)</math>

zusammen, so erhält man im Fall einer Orthonormalbasis eine sogenannte [[orthogonale Matrix]].

Orthonormalbasen und orthogonale Matrizen besitzen zahlreiche bemerkenswerte Eigenschaften, auf denen die wichtigsten Verfahren der modernen numerischen linearen Algebra basieren.<ref>Trefethen, Bau: ''Numerical Linear Algebra.'' 1997, S. 11.</ref> Die Tatsache, dass bei einer orthogonalen Matrix <math>Q</math> die Spalten eine Orthonormalbasis bilden, lässt sich in Matrixschreibweise durch die Gleichung <math>Q^T Q = I</math> ausdrücken, wobei <math>Q^T</math> die [[transponierte Matrix]] und <math>I</math> die [[Einheitsmatrix]] bezeichnen. Das zeigt wiederum, dass ein orthogonale Matrix regulär ist und ihre [[Inverse Matrix|Inverse]] gleich ihrer Transponierten ist: <math>Q^{-1} = Q^T</math>. Die Lösung eines linearen Gleichungssystems <math>Q \mathbf x = \mathbf b</math> lässt sich daher sehr einfach bastimmen, es gilt <math>\mathbf x = Q^T \mathbf b</math>. Ein andere grundlegende Eigenschaft ist es, dass eine Multiplikation eines Vektors seine euklidische Norm unverändert lässt
:<math>\|Q \mathbf x\|_2 = \|\mathbf x\|_2</math>.
Damit folgt für die Spektralnorm <math>\|Q\|_2 = 1</math> und für die Konditionszahl ebenfalls
: <math>\kappa(Q) = \|Q\|_2 \|Q^{-1}\|_2 = 1</math>,
denn <math>Q^{-1} = Q^T</math> ist ebenfalls eine orthogonale Matrix. Multiplikationen mit orthogonalen Matrizen bewirken also keine Vergrößerung des relativen Fehlers.

Orthogonale Matrizen spielen auch eine wichtige Rolle in der Theorie und der numerischen Behandlung von Eigenwertproblemen. Nach der einfachsten Version des [[Spektralsatz]]es lassen sich [[Symmetrische Matrix|symmetrische]] Matrizen orthogonal diagonalisieren. Damit ist gemeint: Zu einer Matrix <math>A</math>, für die <math>A^T = A</math> gilt, existiert eine orthogonale Matrix <math>Q</math> und eine [[Diagonalmatrix]] <math>D</math> mit
: <math>Q^T A Q = D</math>.
Auf der Diagonale von <math>D</math> stehen die Eigenwerte von <math>A</math> und die Spalten von <math>Q</math> bilden eine Orthonormalbasis aus Eigenvektoren. Mit der sogenannten [[Schur-Zerlegung|schurschen Normalform]] existiert eine Verallgemeinerung dieser orthogonalen Transformation für nicht symmetrische Matrizen.


== Literatur ==
== Literatur ==
Zeile 30: Zeile 79:
* {{Internetquelle | url=http://www.mathematik.tu-darmstadt.de/fbereiche/numerik/staff/spellucci/docs/numlinalg09.pdf | autor=Peter Spellucci | titel=Numerische Lineare Algebra | datum=2009-07-16 | format=PDF | kommentar=Vorlesungsskript der [[TU Darmstadt]] |zugriff=2016-03-02}}
* {{Internetquelle | url=http://www.mathematik.tu-darmstadt.de/fbereiche/numerik/staff/spellucci/docs/numlinalg09.pdf | autor=Peter Spellucci | titel=Numerische Lineare Algebra | datum=2009-07-16 | format=PDF | kommentar=Vorlesungsskript der [[TU Darmstadt]] |zugriff=2016-03-02}}
* {{Internetquelle | url=http://wwwmath.uni-muenster.de/num/Vorlesungen/NumerischeLA_WS12/skript.pdf | autor=Frank Wübbeling | titel=Numerische Lineare Algebra im WS 2012/13 | datum=2013-03-29 | format=PDF | kommentar=Vorlesungsskript der [[Universität Münster]] |zugriff=2016-03-02}}
* {{Internetquelle | url=http://wwwmath.uni-muenster.de/num/Vorlesungen/NumerischeLA_WS12/skript.pdf | autor=Frank Wübbeling | titel=Numerische Lineare Algebra im WS 2012/13 | datum=2013-03-29 | format=PDF | kommentar=Vorlesungsskript der [[Universität Münster]] |zugriff=2016-03-02}}

== Einzelnachweise ==
<references />


{{Schreibwettbewerb}}
{{Schreibwettbewerb}}

Version vom 9. März 2016, 19:20 Uhr

Die numerische lineare Algebra ist ein zentrales Teilgebiet der numerischen Mathematik. Sie beschäftigt sich mit der Entwicklung und der Analyse von Rechenmethoden für Problemstellungen der linearen Algebra, insbesondere der Lösung von linearen Gleichungssystemen und Eigenwertproblemen. Solche Probleme treten häufig in den Ingenieurwissenschaften, der Physik oder der Ökonometrie auf.

Einführung in die Problemstellungen

Ein – auch historisch gesehen – zentraler Anfangspunkt der elementaren linearen Algebra sind lineare Gleichungssysteme. Wir betrachten Gleichungen der Gestalt

für Unbekannte . Die Koeffizienten und sind gegebene Zahlen; die gesuchten Werte für sollen so bestimmt werden, dass alle Gleichungen erfüllt werden. Die Koeffizienten lassen sich zu einer Matrix zusammenfassen; die Zahlen und die Unbekannten bilden Spaltenvektoren und . Auf diese Weise ergibt sich die Matrix-Vektor-Darstellung

eines linearen Gleichungssystems: Gesucht ist ein Vektor , der bei der Matrix-Vektor-Multiplikation mit der gegebenen Matrix den gegebenen Vektor ergibt. Als Teilgebiet der Numerik betrachtet auch die numerische lineare Algebra nur sogenannte korrekt gestellte Probleme, also insbesondere nur solche Probleme, die eine Lösung besitzen und bei denen die Lösung eindeutig bestimmt ist. Insbesondere wird im Folgenden stets angenommen, dass die Matrix regulär ist, also ein Inverse besitzt. Dann gibt es für jede rechte Seite eine eindeutig bestimmte Lösung des linearen Gleichungssystems, die formal als angegeben werden kann.

Viele wichtige Anwendungen führen allerdings auf lineare Gleichungssysteme mit mehr Gleichungen als Unbekannten. In der Matrix-Vektor-Darstellung hat in diesem Fall die Matrix mehr Zeilen als Spalten. Solche überbestimmten Systeme haben im Allgemeinen keine Lösung. Man behilft sich deshalb damit, den Vektor so zu wählen, dass die Differenz in einem noch festzulegenden Sinn „möglichst klein“ wird. Beim mit Abstand wichtigsten Fall, dem sogenannten linearen Ausgleichsproblem, wird dazu die Methode der kleinsten Quadrate verwendet: Hierbei wird so gewählt, dass die Quadratsumme minimal wird, wobei die Komponenten des Differenzvektors bezeichnen. Mithilfe der euklidischen Norm lässt sich das auch so schreiben: Man wähle so, dass minimal wird.

Neben den linearen Gleichungen sind die Eigenwertprobleme ein weiteres zentrales Thema der linearen Algebra. Gegeben ist hierbei eine Matrix mit Zeilen und Spalten; gesucht sind Zahlen und Vektoren , sodass die Gleichung

erfüllt ist. Man nennt dann einen Eigenvektor von zum Eigenwert . Das Problem alle Eigenwerte und Eigenvektoren einer Matrix zu bestimmen ist gleichbedeutend damit sie zu diagonalisieren. Das bedeutet: Man finde eine reguläre Matrix und eine Diagonalmatrix mit . Die Diagonaleinträge von sind dann die Eigenwerte von und die Spalten von die zugehörigen Eigenvektoren.

Grundprinzipien

Fehleranalyse: Vektor- und Matrixnormen

Als Maße für die „Größe“ eines Vektors werden in der Mathematik unterschiedliche Vektornormen verwendet. Am bekanntesten und verbreitetsten ist die euklidische Norm

,

also die Wurzel aus der Summe der Quadrate aller Vektorkomponenten. Bei der bekannten geometrischen Veranschaulichung von Vektoren als Pfeile im zwei- oder dreidimensionalen Raum entspricht dies gerade der Pfeillänge. Je nach untersuchter Fragestellung können jedoch auch andere Vektornormen wie etwa die Maximumsnorm oder die 1-Norm geeigneter sein.

Sind Vektoren, wobei als eine Näherung für aufgefasst werden soll, so lässt sich mithilfe einer Vektornorm die Genauigkeit dieser Näherung quantifizieren. Die Norm des Differenzvektors

wird als (normweiser) absoluter Fehler bezeichnet. Betrachtet man den absoluten Fehler im Verhältnis zur Norm des „exakten“ Vektors erhält man den (normweisen) relativen Fehler

.

Da der relative Fehler nicht durch die Skalierung von und beeinflusst wird, ist dieser das Standardmaß für den Unterschied der beiden Vektoren und wird oft auch vereinfacht nur als „Fehler“ bezeichnet.

Auch die „Größe“ von Matrizen wird mit Normen gemessen, den Matrixnormen. Für die Wahl einer Matrixnorm ist es wesentlich, dass sie zur verwendeten Vektornorm „passt“, insbesondere soll die Ungleichung für alle erfüllt sein. Definiert man für eine gegebene Vektornorm als die kleinste Zahl , sodass für alle gilt, dann erhält man die sogenannte natürliche Matrixnorm. Für jede Vektornorm gibt es also eine davon induzierte natürliche Matrixnorm: Für die euklidische Norm ist das die Spektralnorm , für die Maximumsnorm ist es die Zeilensummennorm und für die 1-Norm die Spaltensummennorm . Analog zu Vektoren kann mithilfe einer Matrixnorm der relative Fehler

bei einer Näherung einer Matrix durch eine Matrix quantifiziert werden.[1]

Kondition und Stabilität

Bei Problemen aus der Praxis sind gegebene Größen meist mit Fehlern behaftet, den Datenfehlern. Zum Beispiel kann bei einem linearen Gleichungssystem die gegebene rechte Seite aus einer Messung stammen und daher eine Messabweichung aufweisen. Aber auch bei theoretisch beliebig genau bekannten Größen lassen sich Rundungsfehler bei ihrer Darstellung im Computer als Gleitkommazahlen nicht vermeiden. Es muss also davon ausgegangen werden, dass anstelle des exakten Systems in Wirklichkeit ein System mit einer gestörten rechten Seite und dementsprechend einer „falschen“ Lösung vorliegt. Die grundlegende Frage ist nun, wie stark sich Störungen der gegebenen Größen auf Störungen der gesuchten Größen auswirken. Wenn der relative Fehler der Lösung nicht wesentlich größer ist als die relativen Fehler der Eingangsgrößen spricht man von einem gut konditionierten, anderenfalls von einem schlecht konditionierten Problem. Für das Beispiel linearer Gleichungssysteme lässt sich hierzu die Abschätzung

beweisen. Das Problem ist also gut konditioniert, wenn , das Produkt der Norm der Koeffizientenmatrix und der Norm ihrer Inversen, klein ist. Diese wichtige Kenngröße heißt Konditionszahl der Matrix und wird mit bezeichnet. In realen Problemen wird meist nicht nur, wie hier dargestellt, die rechte Seite fehlerbehaftet sein, sondern auch die Matrix . Dann gilt eine ähnliche, kompliziertere Abschätzung, in der aber ebenfalls die wesentliche Kennzahl zur Bestimmung der Kondition des Problems bei kleinen Datenfehlern ist.[2]

Während die Kondition eine Eigenschaft des zu lösenden Problems ist, ist Stabilität eine Eigenschaft des dafür verwendeten Verfahrens. Ein numerischer Algorithmus liefert – auch bei exakt gedachten Eingangsdaten – im Allgemeinen nicht die exakte Lösung des Problems. Zum Beispiel muss ein iteratives Verfahren, das eine wahre Lösung schrittweise immer genauer annähert, nach endlich vielen Schritten mit der bis dahin erreichten Näherungslösung abbrechen. Aber auch bei direkten Verfahren, die theoretisch in endlich vielen Rechenschritten die exakte Lösung ergeben, kommt es bei der Umsetzung auf dem Computer bei jeder Rechenoperation zu Rundungsfehlern. In der numerischen Mathematik werden zwei unterschiedliche Stabilitätsbegriffe verwendet, die Vorwärtsstabilität und Rückwärtsstabilität. Sei dazu allgemein eine Eingabegröße eines Problems und seine exakte Lösung, aufgefasst als Wert einer Funktion angewendet auf . Auch wenn man die Eingabegröße als exakt vorgegeben betrachtet, wird die Berechnung mit einem Algorithmus ein anderes, „falsches“ Ergebnis liefern, aufgefasst als Wert einer anderen, „falschen“ Funktion ebenfalls angewendet auf . Ein Algorithmus heißt vorwärtsstabil, wenn sich nicht wesentlich stärker von unterscheidet, als es aufgrund der Fehler in der Eingangsgröße und der Kondition des Problems sowieso zu erwarten wäre. Mit einer formalen Definition dieses Begriffs erhält man zwar ein naheliegendes und relativ anschauliches Maß für die Stabilität, aber bei komplizierten Algorithmen ist es oft schwierig, ihre Vorwärtsstabilität zu untersuchen. Daher wird im Allgemeinen zunächst eine sogenannte Rückwärtsanalyse betrachtet: Dazu wird ein bestimmt mit , das heißt: Der durch das Verfahren berechnete „falsche“ Wert wird aufgefasst als „richtiger“ Wert, der aber mit einem anderen Wert der Eingabegröße berechnet wurde.[3] Ein Algorithmus heißt rückwärtsstabil, wenn sich nicht wesentlich stärker von unterscheidet, als es aufgrund der Fehler in dieser Eingangsgröße sowieso zu erwarten wäre. Es lässt sich beweisen, dass ein rückwärtsstabiler Algorithmus auch vorwärtsstabil ist.[4]

Orthogonalität und orthogonale Matrizen

Wie die lineare Algebra zeigt, besteht ein enger Zusammenhang zwischen Matrizen und Basen des Vektorraums . Sind linear unabhängige Vektoren im geben, so bilden diese eine Basis. Eine wichtigen Spezialfall bilden die Orthonormalbasen. Hierbei sind die Basisvektoren paarweise orthogonal zueinander („stehen senkrecht aufeinander“) und sind zudem alle auf euklidische Länge 1 normiert, so wie die Standardbasis im dreidimensionalen Raum. Fasst man die Basisvektoren spaltenweise zu einer Matrix

zusammen, so erhält man im Fall einer Orthonormalbasis eine sogenannte orthogonale Matrix.

Orthonormalbasen und orthogonale Matrizen besitzen zahlreiche bemerkenswerte Eigenschaften, auf denen die wichtigsten Verfahren der modernen numerischen linearen Algebra basieren.[5] Die Tatsache, dass bei einer orthogonalen Matrix die Spalten eine Orthonormalbasis bilden, lässt sich in Matrixschreibweise durch die Gleichung ausdrücken, wobei die transponierte Matrix und die Einheitsmatrix bezeichnen. Das zeigt wiederum, dass ein orthogonale Matrix regulär ist und ihre Inverse gleich ihrer Transponierten ist: . Die Lösung eines linearen Gleichungssystems lässt sich daher sehr einfach bastimmen, es gilt . Ein andere grundlegende Eigenschaft ist es, dass eine Multiplikation eines Vektors seine euklidische Norm unverändert lässt

.

Damit folgt für die Spektralnorm und für die Konditionszahl ebenfalls

,

denn ist ebenfalls eine orthogonale Matrix. Multiplikationen mit orthogonalen Matrizen bewirken also keine Vergrößerung des relativen Fehlers.

Orthogonale Matrizen spielen auch eine wichtige Rolle in der Theorie und der numerischen Behandlung von Eigenwertproblemen. Nach der einfachsten Version des Spektralsatzes lassen sich symmetrische Matrizen orthogonal diagonalisieren. Damit ist gemeint: Zu einer Matrix , für die gilt, existiert eine orthogonale Matrix und eine Diagonalmatrix mit

.

Auf der Diagonale von stehen die Eigenwerte von und die Spalten von bilden eine Orthonormalbasis aus Eigenvektoren. Mit der sogenannten schurschen Normalform existiert eine Verallgemeinerung dieser orthogonalen Transformation für nicht symmetrische Matrizen.

Literatur

Weblinks

Einzelnachweise

  1. Wolfgang Dahmen, Arnold Reusken: Numerik für Ingenieure und Naturwissenschaftler. 2. Auflage. Springer, Berlin/Heidelberg 2008, ISBN 978-3-540-76492-2, 2.5.1 Operatornormen, Konditionszahlen linearer Abbildungen., S. 26–34.
  2. Hans Rudolf Schwarz, Norbert Köckler: Numerische Mathematik. 8. Auflage. Vieweg+Teubner, Wiesbaden 2011, ISBN 978-3-8348-1551-4, S. 53 f.
  3. Wolfgang Dahmen, Arnold Reusken: Numerik für Ingenieure und Naturwissenschaftler. 2. Auflage. Springer, Berlin/Heidelberg 2008, ISBN 978-3-540-76492-2, S. 44.
  4. Peter Deuflhard, Andreas Hohmann: Numerische Mathematik 1. 4. Auflage. Walter de Gruyter, Berlin 2008, ISBN 978-3-11-020354-7, S. 49 f.
  5. Trefethen, Bau: Numerical Linear Algebra. 1997, S. 11.

Dieser Artikel nimmt am Schreibwettbewerb teil. Bitte hilf mit, ihn zu verbessern!