Konvergenzgeschwindigkeit

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Konvergenzordnung)
Zur Navigation springen Zur Suche springen

Unter Konvergenzgeschwindigkeit (auch Konvergenzordnung) versteht man die Geschwindigkeit, mit der sich die Glieder einer konvergenten Folge dem Grenzwert nähern. In der numerischen Mathematik ist die Konvergenzgeschwindigkeit ein wichtiges Qualitätsmerkmal iterativer Verfahren, neben dem Rechenaufwand pro Iteration und der numerischen Stabilität.

Konvergenzordnung

[Bearbeiten | Quelltext bearbeiten]

Sei eine Folge mit dem Grenzwert . Zur Vermeidung nebensächlicher Fallunter­scheidungen seien Glieder mit und andere Wiederholungen weggelassen.

Lineare Konvergenz liegt vor, falls

  mit   .

Manche Autoren bezeichnen als die Konvergenzrate (engl. rate of convergence, franz. taux de convergence). Je kleiner , desto schneller konvergiert die Folge, will sagen: desto weniger Glieder werden benötigt, um eine vorgegebene Genauigkeit zu erreichen.

Unterlineare oder sublineare Konvergenz liegt vor bei . Konvergiert die Folge unterlinear und gilt zusätzlich

,

dann spricht man von logarithmischer Konvergenz.

Superlineare Konvergenz liegt vor, wenn es eine gegen Null konvergente Zahlenfolge gibt mit:

Eine Folge, die superlinear konvergiert, konvergiert schneller als linear.

Konvergenz der Ordnung q (oder Q-Konvergenzordnung (≥) q) mit liegt vor, wenn konvergiert und ein existiert, sodass

In der Literatur finden sich auch Formulierungen wie „konvergiert mit der Q-Ordnung (wenigstens) (englisch converges with Q-order at least ) für denselben Sachverhalt.[1] Das Q kommt von Quotient, weil die Q-Ordnung über den Quotienten zweier aufeinanderfolgender Terme definiert ist. Konvergiert die Folge mit einer Q-Ordnung , dann konvergiert sie auch mit der Q-Ordnung für jedes mit .

Man sagt, die Folge hat die exakte Q-Ordnung q, wenn es positive mit

gibt. Die exakte Q-Ordnung ist eindeutig, wenn sie existiert:

Für spricht man von quadratischer Konvergenz. Konvergenz der Ordnung impliziert superlineare Konvergenz (die "Konvergenzrate" ist eine Nullfolge) und superlineare Konvergenz impliziert lineare Konvergenz.

Konvergenz der Ordnung bedeutet, dass in jedem Iterationsschritt die Anzahl der genauen Dezimalstellen (oder die Anzahl der Stellen in einem beliebigen Stellenwertsystem) in etwa ver--facht wird, also beispielsweise bei quadratischer Konvergenz verdoppelt.

Konvergenzbeschleunigung beschränkt sich meist auf Potenzreihen, die linear konvergieren. Dabei wird i. d. R. nur die Konvergenzrate (und nicht die Q-Ordnung ) verbessert, was trotzdem eine wesentliche Verringerung des Gesamtaufwands (bei ggf. größerem Aufwand pro Iteration) bedeuten kann. Verfahren der Ordnungen >1 gibt es nicht zu jeder Problemklasse. Bei Iterationsverfahren müssen auch Stabilitätseigenschaften beobachtet werden.

konvergiert logarithmisch.
konvergiert unterlinear.
konvergiert linear mit der Konvergenzrate .
hat Q-Konvergenzordnung für alle .
  • Die Nullfolge mit
, also ,
konvergiert quadratisch.
  • Das Newton-Verfahren konvergiert bei einer einfachen Nullstelle quadratisch. Vereinfachte Varianten des Newton-Verfahrens konvergieren langsamer, teilweise superlinear, teilweise mit erster Ordnung. Im Vergleich zum Newton-Verfahren ist ein Iterationsschritt aber möglicherweise deutlich günstiger.
  • Fixpunktverfahren, deren Konvergenz mit dem Fixpunktsatz von Banach nachgewiesen ist (beispielsweise Splitting-Verfahren), haben mindestens lineare Konvergenzgeschwindigkeit.
  • Das Sekantenverfahren hat eine gebrochene Konvergenzordnung (goldener Schnitt), es konvergiert insbesondere superlinear.

Vergleichende Konvergenzgeschwindigkeit

[Bearbeiten | Quelltext bearbeiten]

Um die Konvergenzgeschwindigkeit zu beschreiben, mit der eine Folge gegen den Grenzwert konvergiert, vergleicht man die Konvergenzgeschwindigkeit der Nullfolge mit anderen Nullfolgen, deren Konvergenzgeschwindigkeit man kennt, wie z. B. , für , für oder .

Definition

Man sagt, eine Nullfolge konvergiert mindestens so schnell wie eine Nullfolge , wenn gilt .

Eine Folge heißt schnell fallend, wenn sie schneller als jede polynomische Folge mit natürlichem fällt, also für jedes (ein Beispiel ist etwa die Folge .)

Von besonderem Interesse ist daher die Beschreibung der Konvergenzordnung numerischer Verfahren in normierten Räumen, wo also die Folgenglieder die Gestalt haben.

Im Sinne dieser Definition nennt man ein Iterationsverfahren linear konvergent, wenn es so schnell wie die Folge für ein konvergiert. Man nennt es quadratisch konvergent, wenn es so schnell wie die Folge konvergiert. Ebenso lassen sich auch höhere Konvergenzordnungen (kubisch, superlinear) definieren.

Beliebig langsame Konvergenz

[Bearbeiten | Quelltext bearbeiten]

Viele wichtige numerische Verfahren sind beliebig langsam konvergent. Sei beispielsweise ein Banachraum, eine Folge von -dimensionalen Teilräumen und ein Verfahren, das zu jeder Lösung einer Gleichung eine angenäherte Lösung in liefert. Das Verfahren heißt dann beliebig langsam konvergent, wenn es zu jeder positiven Nullfolge ein gibt, sodass die Nullfolge mit und den zugehörigen angenäherten Lösungen langsamer als die Folge konvergiert.

Setzt man z. B. bei der numerischen Integration nur die Stetigkeit der zu integrierenden Funktion voraus, nicht aber eine gewisse Differenzierbarkeitsordnung, so ist das Verfahren der numerischen Integration beliebig langsam konvergent, d. h., zu jeder beliebig langsam gegen 0 konvergierenden monotonen Folge positiver Zahlen gibt es eine stetige Funktion , sodass die Folge der Quadraturwerte langsamer gegen das Integral konvergiert als die gegebene Nullfolge. Andere Beispiele findet man bei der Interpolation oder der Lösung inkorrekt gestellter Probleme.

Umgekehrte Resultate

[Bearbeiten | Quelltext bearbeiten]

In etlichen Disziplinen der Analysis lassen sich aus der Konvergenzgeschwindigkeit Erkenntnisse über die Struktur des zu untersuchenden Problems gewinnen. Als Beispiel seien die Bernstein­sätze aus der Approximationstheorie erwähnt: Ist eine stetige Funktion durch Polynome vom Grad mit der Konvergenzgeschwindigkeit für ein approximierbar, so ist sie -fach differenzierbar.

Fourier-Koeffizienten

[Bearbeiten | Quelltext bearbeiten]

Für Fourier-Koeffizienten funktioniert das in beide Richtungen: Die Konvergenzgeschwindigkeit der Koeffizienten impliziert den Grad der Differenzierbarkeit und vice versa.

Sei eine über dem Intervall quadratisch integrierbare Funktion, und seien für die Fourier-Koeffizienten. Dann gilt für :

  • Ist eine über -mal stetig differenzierbare Funktion, dann ist mit
  • Gibt es mit , dann ist
  • Martin Hanke-Bourgeois: Grundlagen der Numerischen Mathematik und des Wissenschaftlichen Rechnens. Teubner, Stuttgart 2002.
  • Arnold Schönhage: Approximationstheorie. de Gruyter, Berlin 1971.
  • Eberhard Schock: Arbitrarily Slow Convergence, Uniform Convergence and Superconvergence of Galerkin-like Methods. IMA J. Numer. Analysis 5 (1985), 153–160.
  • Hans R. Schwarz, Norbert Köckler: Numerische Mathematik. 5. Auflage. Teubner, Stuttgart 2004.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. F. A. Potra: On Q-order and R-order of convergence. In: J. Optim. Th. Appl. 63. Jahrgang, Nr. 3, 1989, S. 415–431, doi:10.1007/BF00939805.