Konvergenzgeschwindigkeit

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Unter Konvergenzgeschwindigkeit (auch Konvergenzordnung) versteht man die Geschwindigkeit, mit der sich die Glieder einer konvergenten Folge () dem Grenzwert x nähern. In der numerischen Mathematik ist die Konvergenzgeschwindigkeit ein wichtiges Qualitätsmerkmal iterativer Verfahren, neben dem Rechenaufwand pro Iteration und der numerischen Stabilität.

Konvergenzordnung bei Iterationsverfahren[Bearbeiten | Quelltext bearbeiten]

Man unterscheidet zwischen linearer, superlinearer sowie p-ter Konvergenzordnung.

Lineare Konvergenz liegt vor, falls es ein 0<c<1 gibt, so dass

Superlineare Konvergenz liegt vor, wenn die obige Ungleichung nicht nur mit einem konstanten c gilt, sondern sogar mit einer gegen Null konvergenten Zahlenfolge ():

Eine Folge, die superlinear konvergiert, konvergiert also schneller als linear.

Konvergenz der Ordnung p mit p>1 liegt vor, wenn () konvergiert und ein c>0 existiert, so dass

Für p=2 spricht man von quadratischer Konvergenz. Konvergenz der Ordnung p impliziert superlineare Konvergenz und superlineare Konvergenz impliziert lineare Konvergenz.

Der Begriff ist vor allem in der Numerik wichtig, wo eine Näherung des Grenzwertes eines Iterationsverfahrens meist durch Berechnung einer kleinen Anzahl von Folgengliedern geschieht. Konvergenz der Ordnung p bedeutet dann, dass in jedem Iterationsschritt die Anzahl der genauen Dezimalstellen (bzw. Stellen in einem beliebigen Stellenwertsystem) ver--facht werden, also beispielsweise bei quadratischer Konvergenz verdoppelt.

Die schnellere Konvergenz von Verfahren höherer Ordnung wird meist mit größerem Aufwand pro Iteration bezahlt, in vielen Fällen auch mit schlechteren Stabilitätseigenschaften oder Einschränkungen an die behandelbaren Problemklassen (z. B. Forderung nach höherer Differenzierbarkeitsordnung der Daten).

Beispiele[Bearbeiten | Quelltext bearbeiten]

  • Das Newton-Verfahren konvergiert bei einer einfachen Nullstelle mit zweiter Ordnung. Vereinfachte Varianten des Newton-Verfahrens konvergieren langsamer, teilweise superlinear, teilweise mit erster Ordnung. Im Vergleich zum Newton-Verfahren ist ein Iterationsschritt aber möglicherweise deutlich günstiger.
  • Fixpunktverfahren, deren Konvergenz mit dem Fixpunktsatz von Banach nachgewiesen ist (beispielsweise Splitting-Verfahren), haben mindestens lineare Konvergenzgeschwindigkeit.
  • Das Sekantenverfahren hat eine gebrochene Konvergenzordnung mit p = ½ (1+√5) (goldener Schnitt), es konvergiert insbesondere superlinear.

Allgemeine Definition der Konvergenzgeschwindigkeit[Bearbeiten | Quelltext bearbeiten]

Um die Konvergenzgeschwindigkeit zu beschreiben, mit der eine Folge () gegen den Grenzwert x konvergiert, vergleicht man die Konvergenzgeschwindigkeit der Nullfolge mit gewissen anderen Nullfolgen, für deren Konvergenzgeschwindigkeit man ein gutes Gefühl hat wie z. B. , für , für 0<q<1 oder .

Definition

Man sagt, eine Nullfolge () konvergiert mindestens so schnell wie eine Nullfolge (), wenn gilt .

Eine Folge () heißt schnell fallend, wenn sie schneller als jede Folge der Art (), k eine natürliche Zahl, fällt, also für jedes k (ein Beispiel ist etwa die Folge .)

Von besonderem Interesse ist also die Beschreibung der Konvergenzordnung numerischer Verfahren in normierten Räumen, wo also die Folgenglieder die Gestalt haben.

Im Sinne dieser Definition nennt man ein Iterationsverfahren linear konvergent, wenn es so schnell wie die Folge () mit 0<q<1 konvergiert. Man nennt es quadratisch konvergent, wenn es so schnell wie die Folge konvergiert. Ebenso lassen sich auch höhere Konvergenzordnungen (kubisch, superlinear) definieren.

Beliebig langsame Konvergenz[Bearbeiten | Quelltext bearbeiten]

Viele wichtige numerische Verfahren sind beliebig langsam konvergent. Sei also X ein Banachraum und eine Folge von n-dimensionalen Teilräumen und sei V ein Verfahren, das zu jeder Lösung einer Gleichung eine angenäherte Lösung in liefert. Das Verfahren V heißt dann beliebig langsam konvergent, wenn es zu jeder positiven Nullfolge ein y gibt, so dass für die zugehörigen angenäherten Lösungen langsamer als die Folge konvergiert.

Setzt man z. B. bei der numerischen Integration nur die Stetigkeit der zu integrierenden Funktion voraus, nicht aber eine gewisse Differenzierbarkeitsordnung, so ist das Verfahren der numerischen Integration beliebig langsam konvergent, d. h. zu jeder beliebig langsam gegen Null konvergierenden monotonen Folge positiver Zahlen gibt es eine stetige Funktion f, so dass die Folge der Quadraturwerte langsamer gegen das Integral konvergieren als die gegebene Nullfolge. Andere Beispiele findet man bei der Interpolation oder der Lösung inkorrekt gestellter Probleme.

Umgekehrte Resultate[Bearbeiten | Quelltext bearbeiten]

In etlichen Disziplinen der Analysis lassen sich aus der Konvergenzgeschwindigkeit Erkenntnisse über die Struktur des zu untersuchenden Problems gewinnen. Als Beispiel seien die Bernstein­sätze aus der Approximationstheorie erwähnt: Ist eine stetige Funktion durch Polynome vom Grad n mit der Konvergenzgeschwindigkeit für ein a>0 approximierbar, so ist sie k-fach differenzierbar.

Kritik an dem Konzept[Bearbeiten | Quelltext bearbeiten]

Oftmals ist man lediglich an einem Verfahren interessiert, welches schnell () eine bestimmte Genauigkeit, z. B. IEEE-double precision,

erreicht. Dafür ist es jedoch zweitrangig, ob das Verfahren für große , beispielsweise , lineare, quadratische oder kubische Konvergenzgeschwindigkeit besitzt.

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Martin Hanke-Bourgeois, Grundlagen der Numerischen Mathematik und des Wissenschaftlichen Rechnens, Teubner, Stuttgart 2002
  • Arnold Schönhage, Approximationstheorie, de Gruyter, Berlin 1971
  • Eberhard Schock, Arbitrarily Slow Convergence, Uniform Convergence and Superconvergence of Galerkin-like Methods, IMA J. Numer. Analysis 5 (1985) 153-160
  • Hans R. Schwarz, Norbert Köckler: Numerische Mathematik. 5. Auflage. Teubner, Stuttgart 2004,