Konvergenzgeschwindigkeit

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Unter Konvergenzgeschwindigkeit (auch Konvergenzordnung) versteht man die Geschwindigkeit, mit der sich die Glieder einer konvergenten Folge (x_n) dem Grenzwert x nähern. In der numerischen Mathematik ist die Konvergenzgeschwindigkeit ein wichtiges Qualitätsmerkmal iterativer Verfahren, neben dem Rechenaufwand pro Iteration und der numerischen Stabilität.

Konvergenzordnung bei Iterationsverfahren[Bearbeiten]

Man unterscheidet zwischen linearer, superlinearer sowie p-ter Konvergenzordnung.

Lineare Konvergenz liegt vor, falls es ein 0<c<1 gibt, so dass

 \|x_{k+1}-x\| \leq c\|x_{k}-x\|, k=0,1,...

Superlineare Konvergenz liegt vor, wenn die obige Ungleichung nicht nur mit einem konstanten c gilt, sondern sogar mit einer gegen Null konvergenten Zahlenfolge (c_k):

 \|x_{k+1}-x\| \leq c_k\|x_{k}-x\|, k=0,1,...

Eine Folge, die superlinear konvergiert, konvergiert also schneller als linear.

Konvergenz der Ordnung p mit p>1 liegt vor, wenn (x_k) konvergiert und ein c>0 existiert, so dass

 \|x_{k+1}-x\| \leq c\|x_{k}-x\|^{p}, k=0,1,...

Für p=2 spricht man von quadratischer Konvergenz. Konvergenz der Ordnung p impliziert superlineare Konvergenz und superlineare Konvergenz impliziert lineare Konvergenz.

Der Begriff ist vor allem in der Numerik wichtig, wo eine Näherung des Grenzwertes eines Iterationsverfahrens meist durch Berechnung einer kleinen Anzahl von Folgengliedern geschieht. Konvergenz der Ordnung p bedeutet dann, dass in jedem Iterationsschritt die Anzahl der genauen Dezimalstellen (bzw. Stellen in einem beliebigen Stellenwertsystem) ver-p-facht werden, also beispielsweise bei quadratischer Konvergenz verdoppelt.

Die schnellere Konvergenz von Verfahren höherer Ordnung wird meist mit größerem Aufwand pro Iteration bezahlt, in vielen Fällen auch mit schlechteren Stabilitätseigenschaften oder Einschränkungen an die behandelbaren Problemklassen (z. B. Forderung nach höherer Differenzierbarkeitsordnung der Daten).

Beispiele[Bearbeiten]

  • Das Newton-Verfahren konvergiert bei einer einfachen Nullstelle mit zweiter Ordnung. Vereinfachte Varianten des Newton-Verfahrens konvergieren langsamer, teilweise superlinear, teilweise mit erster Ordnung. Im Vergleich zum Newton-Verfahren ist ein Iterationsschritt aber möglicherweise deutlich günstiger.
  • Fixpunktverfahren, deren Konvergenz mit dem Fixpunktsatz von Banach nachgewiesen ist (beispielsweise Splitting-Verfahren), haben mindestens lineare Konvergenzgeschwindigkeit.
  • Das Sekantenverfahren hat eine gebrochene Konvergenzordnung mit p = ½ (1+√5) (goldener Schnitt), es konvergiert insbesondere superlinear.

Allgemeine Definition der Konvergenzgeschwindigkeit[Bearbeiten]

Um die Konvergenzgeschwindigkeit zu beschreiben, mit der eine Folge (x_n) gegen den Grenzwert x konvergiert, vergleicht man die Konvergenzgeschwindigkeit der Nullfolge (a_n) = (x - x_n) mit gewissen anderen Nullfolgen, für deren Konvergenzgeschwindigkeit man ein gutes Gefühl hat wie z. B. (n^{-a}), (n^{-a} \log n) für a>0, (q^n) für 0<q<1 oder (e^{-2^n}).

Definition

Man sagt, eine Nullfolge (a_n) konvergiert mindestens so schnell wie eine Nullfolge (b_n), wenn gilt \sup |a_n /b_n| < \infty.

Eine Folge (a_n) heißt schnell fallend, wenn sie schneller als jede Folge der Art (n^{-k}), k eine natürliche Zahl, fällt, also \sup |a_n| n^k
 < \infty für jedes k (ein Beispiel ist etwa die Folge \left(e^{-n}\right).)

Von besonderem Interesse ist also die Beschreibung der Konvergenzordnung numerischer Verfahren in normierten Räumen, wo also die Folgenglieder die Gestalt \|x-x_n \| haben.

Im Sinne dieser Definition nennt man ein Iterationsverfahren linear konvergent, wenn es so schnell wie die Folge (q^n) mit 0<q<1 konvergiert. Man nennt es quadratisch konvergent, wenn es so schnell wie die Folge \left(e^{-2^n}\right) konvergiert. Ebenso lassen sich auch höhere Konvergenzordnungen (kubisch, superlinear) definieren.

Weitere Beispiele[Bearbeiten]

In diesem Artikel oder Abschnitt fehlen folgende wichtige Informationen: Um die Konvergenz welcher Größen bezüglich welches Konvergenzbegriffs und welchen Grenzprozessen geht es hier jeweils? Was kann über die Konvergenzgeschwindigkeit in den genannten Beispielen jeweils gesagt werden? Welche Bezüge gibt es zu den oben eingeführten Konvergenzordnungen (lineare, superlineare, von Ordnung p)?

Du kannst Wikipedia helfen, indem du sie recherchierst und einfügst, aber kopiere bitte keine fremden Texte in diesen Artikel.

Beliebig langsame Konvergenz[Bearbeiten]

Viele wichtige numerische Verfahren sind beliebig langsam konvergent. Sei also X ein Banachraum und X_n eine Folge von n-dimensionalen Teilräumen und sei V ein Verfahren, das zu jeder Lösung einer Gleichung f(x) = y eine angenäherte Lösung x_n in X_n liefert. Das Verfahren V heißt dann beliebig langsam konvergent, wenn es zu jeder positiven Nullfolge (a_n) ein y gibt, so dass (x-x_n) für die zugehörigen angenäherten Lösungen x_n langsamer als die Folge (a_n) konvergiert.

Setzt man z. B. bei der numerischen Integration nur die Stetigkeit der zu integrierenden Funktion voraus, nicht aber eine gewissen Differenzierbarkeitsordnung, so ist das Verfahren der numerischen Integration beliebig langsam konvergent, d. h. zu jeder beliebig langsam gegen Null konvergierenden monotonen Folge positiver Zahlen gibt es eine stetige Funktion f, so dass die Folge der Quadraturwerte langsamer gegen das Integral konvergieren als die gegebene Nullfolge. Andere Beispiele findet man bei der Interpolation oder der Lösung inkorrekt gestellter Probleme.

Umgekehrte Resultate[Bearbeiten]

In etlichen Disziplinen der Analysis lassen sich aus der Konvergenzgeschwindigkeit Erkenntnisse über die Struktur des zu untersuchenden Problems gewinnen. Als Beispiel seien die Bernstein­sätze aus der Approximationstheorie erwähnt: Ist eine stetige Funktion durch Polynome vom Grad n mit der Konvergenzgeschwindigkeit \mathcal{O}(n^{-k-a}) für ein a>0 approximierbar, so ist sie k-fach differenzierbar.

Kritik an dem Konzept[Bearbeiten]

Oftmals ist man lediglich an einem Verfahren interessiert, welches schnell (k\leq 10) eine bestimmte Genauigkeit, z. B. IEEE-double precision,

 \|x_{k}-x\| < \epsilon

erreicht. Dafür ist es jedoch zweitrangig, ob das Verfahren für große k, beispielsweise k>100, lineare, quadratische oder kubische Konvergenzgeschwindigkeit besitzt.

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

  • Martin Hanke-Bourgeois, Grundlagen der Numerischen Mathematik und des Wissenschaftlichen Rechnens, Teubner, Stuttgart 2002
  • Arnold Schönhage, Approximationstheorie, de Gruyter, Berlin 1971
  • Eberhard Schock, Arbitrarily Slow Convergence, Uniform Convergence and Superconvergence of Galerkin-like Methods, IMA J. Numer. Analysis 5 (1985) 153-160
  • Hans R. Schwarz, Norbert Köckler: Numerische Mathematik. 5. Auflage. Teubner, Stuttgart 2004,