Stabilität (Numerik)

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 13. Oktober 2016 um 15:00 Uhr durch Evotopid (Diskussion | Beiträge) (Verwendung der Standardvorlage für Literaturangaben,). Sie kann sich erheblich von der aktuellen Version unterscheiden.
Zur Navigation springen Zur Suche springen

In der numerischen Mathematik heißt ein Verfahren stabil, wenn es gegenüber kleinen Störungen der Daten unempfindlich ist. Insbesondere bedeutet dies, dass sich Rundungsfehler nicht zu stark auf die Berechnung auswirken. Man unterscheidet in der Numerik hierbei Kondition, Stabilität und Konsistenz, die untereinander stark verwandt sind. Stabilität ist dabei eine Eigenschaft des Algorithmus und die Kondition eine Eigenschaft des Problems. Die Beziehung zwischen diesen Größen lässt sich wie folgt beschreiben:

Es sei das mathematische Problem in Abhängigkeit von der Eingabe , und es sei der numerische Algorithmus, sowie die gestörten Eingabedaten:

Kondition: Wie stark schwankt das Problem bei Störung?
Stabilität: Wie stark schwankt der numerische Algorithmus bei Störung?
Konsistenz: Wie gut löst der Algorithmus (mit exakter Eingabe) tatsächlich das Problem?
Konvergenz: Wie gut löst der gestörte Algorithmus tatsächlich das Problem?

Also beschreibt die Stabilität die Robustheit des numerischen Verfahrens gegenüber Störungen in den Eingabedaten, insbesondere bedeutet dies, dass sich Rundungsfehler nicht summieren und zu Störungen in der Lösung führen. Die Quantifizierung des Begriffes ist jedoch nach Problem und verwendeter Norm unterschiedlich.

Im Regelfall folgt aus Stabilität und Konsistenz (manchmal noch mit einer kleinen Zusatzvoraussetzung) die Konvergenz der numerischen Lösung gegen die analytische Lösung, da sowohl die Fehler der Eingabedaten als auch die Fehler durch die Diskretisierung des Problems gedämpft werden.

Die beiden Analyseverfahren

Vorwärtsanalyse

Ein Verfahren heißt stabil, wenn es eine Konstante gibt, so dass gilt:

wobei die relative Kondition des Problems und die Maschinengenauigkeit bezeichnet. quantifiziert die Stabilität im Sinne der Vorwärtsanalyse.

Rückwärtsanalyse

Das zweite gängige Analyseverfahren ist die von James Hardy Wilkinson eingeführte Rückwärtsanalyse. Meistens kennt man eine sinnvolle obere Schranke  für den unvermeidbaren relativen Eingabefehler (problemabhängig kann das ein Messfehler oder auch ein Rundungsfehler sein). Um den durch den Algorithmus verursachten Fehler besser einschätzen zu können, rechnet man ihn bei der Rückwärtsanalyse in einen äquivalenten Fehler in den Eingangsdaten des Problems um, der auch als Rückwärtsfehler bezeichnet wird. Die formale Definition des Rückwärtsfehlers des Algorithmus für die (gerundeten) Eingabedaten (mit ) lautet:

,

wobei für Definitionsbereich steht.

Der Algorithmus ist rückwärtsstabil, wenn der relative Rückwärtsfehler für alle kleiner als der unvermeidbare relative Eingabefehler ist. Für manche Anwendungen schwächt man diese Forderung ab und lässt noch eine dem Problem angemessene Konstante zu, mit der

für alle

gelten soll. Manchmal interessiert man sich auch nur dafür, ob der relative Rückwärtsfehler überhaupt beschränkt ist.

Man kann zeigen, dass Rückwärtsstabilität die Vorwärtsstabilität impliziert.

Anwendungen

Addition

Da man zeigen kann, dass die relative Kondition der Addition bei zwei Zahlen im Falle der Auslöschung (Ergebnis ist nah an 0) beliebig schlecht sein kann, folgt aus der Definition der Vorwärtsanalyse, dass die Addition als numerisches Verfahren (im Computer) stabil ist.

Differentialgleichungen

Bei numerischen Lösern für Differentialgleichungen mit Anfangs- oder Randwerten, bzw. mit rechter Seite versucht man eine Abschätzung der entwickelten Lösung von diesen Eingabegrößen zu erhalten. Im Sinne der Vorwärtsanalyse gibt es in diesem Fall die Konstante .

Gewöhnliche Differentialgleichungen

Für gewöhnliche Differentialgleichungen gilt der Äquivalenzsatz von Lax, nach dem Null-Stabilität und Konsistenz äquivalent zu Konvergenz des Verfahrens sind.

Zu konkreten Verfahren wird das Stabilitätsgebiet definiert als die Menge der komplexen Zahlen für die das numerische Verfahren bei der Lösung der dahlquistschen Testgleichung

bei fester Schrittweite eine monoton fallende Folge von Näherungen liefert.

Der beste Fall ist, wenn das Stabilitätsgebiet die komplette linke Halbebene enthält, dann heißt das Verfahren A-stabil.

Partielle Differentialgleichungen

Das Standardverfahren zur Stabilitätsanalyse von numerischen Verfahren für partielle Differentialgleichungen ist die Von-Neumann-Stabilitätsanalyse, die für lineare Probleme notwendige und hinreichende Aussagen macht, für nichtlineare Probleme jedoch nur notwendige.

Siehe auch: Stabilitätstheorie

Literatur

  • J. H. Wilkinson: Error Analysis of Direct Methods of Matrix Inversion. Journal of the ACM, Vol. 8(1961), No. 3, pp. 281-330
  • Peter Deuflhard, Andreas Hohmann: Numerische Mathematik I, Eine algorithmisch orientierte Einführung. 3. Auflage. De Gruyter, 2002, ISBN 978-3-11-017182-2.
  • Krause: Praktische Mathematik Universität Bonn
  • Martin Hermann: Numerische Mathematik. Oldenbourg Verlag, München und Wien 2001, ISBN 3-486-25558-4.
  • Martin Hermann: Numerik gewöhnlicher Differentialgleichungen, Anfangs- und Randwertprobleme. Oldenbourg Verlag, München und Wien 2004, ISBN 3-486-27606-9.