Konsistenz (Numerik)

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 14. Juni 2016 um 10:15 Uhr durch 80.150.211.148 (Diskussion). Sie kann sich erheblich von der aktuellen Version unterscheiden.
Zur Navigation springen Zur Suche springen

In der numerischen Mathematik ist die Konsistenz beziehungsweise die Konsistenzordnung eine Eigenschaft eines numerischen Verfahrens, die bedeutet, dass der Algorithmus in einer gewissen grundlegenden Weise tatsächlich das gegebene Problem löst und nicht ein anderes.

Die drei in der Numerik entscheidenden Fehlerbewertungsmechanismen sind Kondition, Stabilität und Konsistenz. Alle drei Größen analysieren die Entstehung von Fehlern, unterscheiden sich aber in der Art der Fehlerquellen. Die Konditionsbewertung geht davon aus, dass der Algorithmus genau funktioniert, jedoch die Eingabedaten gestört sind. Die Stabilität vergleicht das Ergebnis des numerischen Verfahrens mit dem des exakten Verfahrens unter gestörten Eingabedaten.

Die Konsistenz beschäftigt sich nun mit der Frage, was passiert, wenn die exakte Lösung im numerischen Verfahren verarbeitet wird. Die aufgeführten Beispiele sind numerische Differentiation oder Lösung eines Anfangswertproblems. Hier wird der entstehende Fehler in Abhängigkeit von einem gewählten Gitter oder einer gewählten Schrittweite betrachtet.

Definition

Gegeben sei ein kontinuierliches Problem und die exakte Lösung sowie die numerische Lösung zu einer Schrittweite . Das Verfahren heißt konsistent, falls es eine Funktion mit gibt, so dass für den lokalen Fehler gilt (das Verfahren startet mit exakten Anfangsdaten):

Es besitzt die Konsistenzordnung falls .

Das bedeutet, dass man zu jedem Zeitpunkt (oder auch Ort) eine Fehlerbeschränkung in Abhängigkeit von der gewählten Schrittweite hat. Es ist klar, dass in der Praxis Verfahren dieses Verhalten nur zeigen, wenn man eine hinreichend kleine Schrittweite wählt (vgl. Stabilität).

Viele solcher Konsistenzabschätzungen werden mit Hilfe des Satzes von Taylor bewiesen, aus dem einfachen Grund, dass viele Verfahren die ersten Glieder der Taylorreihe (die abhängig von einer Schrittweite h ist) entwickeln, um ausgehend von der Lösung zum aktuellen Zeitpunkt die Lösung für den nächsten Zeitpunkt darzustellen:

.

Die Konstante ist dann das Restglied , bzw. eine Supremumsnormabschätzung.

Beispiele

Differentiation

Eine Möglichkeit, die Ableitung einer Funktion in einem Punkt zu errechnen, ist die Benutzung von Differenzenquotienten, sofern hinreichend oft differenzierbar ist. Wir betrachten zwei Verfahren:

Den einfachen Differenzenquotienten
und
den zentralen Differenzenquotienten

Die Taylorentwicklungen

liefern dann für den einfachen Differenzenquotienten

.

bzw. für den zentralen Differenzenquotienten

Einsetzen und Subtrahieren in der Norm liefert dann die Konsistenzordnung eins bzw. zwei: bzw. . Man erkennt, dass man mit ähnlichem Rechenaufwand (je zwei Funktionsauswertungen und im Wesentlichen eine Division) mittels des zentralen Differenzenquotienten eine höhere Konsistenzordnung erreicht.

Gewöhnliche Differentialgleichungen

Zum diskreten Lösen eines Anfangswertproblemes kann man Einschrittverfahren, z.B. Runge-Kutta-Verfahren, verwenden. Ein solches hat die Konsistenzordnung p, wenn es die lokale Fehlerordnung p+1 hat.

Das einfachste Einschrittverfahren ist das explizite Eulerverfahren (Euler'sches Polygonzugverfahren).

Dabei wird die exakte Lösung einer Differentialgleichung

und

numerisch approximiert durch die stückweise lineare Funktion

mit und

mit und

Man kann auch hier mit der Taylorentwicklung

die lokale Fehlerordnung 2 und damit die Konsistenz von , d.h., Konsistenzordnung 1, nachweisen.