Hermiteinterpolation

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

In der numerischen Mathematik ist die Hermiteinterpolation (benannt nach Charles Hermite) ein Interpolationsverfahren zur Polynominterpolation, das auch Ableitungen der zu interpolierenden Funktion berücksichtigt.

Vorbereitung[Bearbeiten]

Motivation[Bearbeiten]

Splineinterpolation ohne Berücksichtigung der Steigung. Man sieht klar den „Knick“ bei x=0{,}5

Ein Ergebnis für die klassische Polynominterpolation besagt, dass äquidistante Stützstellen – also gleicher Abstand zwischen den bekannten Funktionswerten – zu einem exponentiellen Anstieg der Kondition der Polynominterpolation führt, ihren Fehler also drastisch erhöht.[1]

In der Praxis haben äquidistante Messpunkte aber gewisse Vorteile und sind manchmal auch unvermeidbar. Man benötigt daher ein Interpolationsverfahren, das auch für diesen Fall nur kleine Fehler erzeugt. Ein Ansatz ist die Splineinterpolation, bei der das Gebiet, auf dem eine Funktion interpoliert werden soll, durch ein Gitter zerteilt und in jedem der entstandenen Intervalle eine Polynominterpolation durchgeführt wird.

Splineinterpolation mit Berücksichtigung der Steigung

Wählt man dabei den „naiven“, Newtonschen Ansatz, stimmen die Ableitungen der Interpolierten an den Gitterpunkten nicht notwendigerweise überein – folglich ist die Interpolierte an diesen Punkten in der Regel nicht (stetig) differenzierbar. Es muss nicht bei „Ecken“, wie im Beispiel rechts, bleiben. Es könnte zum Beispiel auch passieren, dass auf zwei benachbarten Intervallen die Interpolierten sich „von oben“ dem Gitterpunkt nähern und so tatsächlich eine – anschaulich – „Spitze“ entsteht.

Da dieses Verhalten offensichtlich unerwünscht ist, versucht man, die Übergänge glatt zu gestalten, indem man neben den Funktionswerten in den Gitterpunkten weiterhin beliebig viele Ableitungen als bekannt voraussetzt und die Interpolationspolynome so wählt, dass die Ableitungen in dem gemeinsamen Punkt übereinstimmen. Praktisch reicht es, die erste Ableitung gleichzusetzen, um einen „glatt“ aussehenden Graphen zu erhalten.

Diese Aufgabe lässt sich analog zur Problemstellung in der klassischen Polynominterpolation schriftlich lösen. Als Beispiel dient hier die Aufgabe,

f(-1) = -1,\, f'(-1) = 0,\, f(2) = 0 in \mathcal{P}_2 zu interpolieren.

Man definiert

p(x) := a_0 + a_1 \cdot x + a_2 \cdot x^2 und leitet ab zu p'(x) := a_1 + a_2 \cdot 2x.

Das Gleichungssystem wird damit zu

\begin{pmatrix}
1 & -1 & 1 \\
0 & 1 & -2 \\
1 & 2 & 4
\end{pmatrix}
\cdot \begin{pmatrix}
a_0 \\
a_1 \\
a_2
\end{pmatrix} =
\begin{pmatrix}
-1 \\
0 \\
0
\end{pmatrix}.

Lösen nach a = (a_0,a_1,a_2)^T bringt die gesuchten Koeffizienten.

Dieser Lösungsansatz hat den Nachteil, dass er in der Komplexitätsklasse \mathcal{O}(n^3) liegt und damit langsam ist. Es wäre wünschenswert, die Newton-Basis von der klassischen Polynominterpolation übernehmen zu können. Dieser Ansatz schließt allerdings zusammenfallende Stützstellen aus und ist daher nicht ohne Modifikation anwendbar. Daher erweitert man ihn zum Hermitschen Interpolationsverfahren.

Hermite-Genocchi-Formel[Bearbeiten]

Die Hermite-Genocchi-Formel bildet die Grundlage der Hermiteinterpolation. Sie liefert eine Integraldarstellung für die dividierten Differenzen aus dem Newtonalgorithmus der Polynominterpolation:

f[x_0,\ldots,x_k] = \int_{\Sigma^k}f^{(k)}\left(x_0+\sum_{i=1}^k s_i(x_i-x_0)\right)\,ds ,

mit dem k-dimensionalen Einheitssimplex

 \;\Sigma^k = \left\{s\in \R^k,\, \forall i: s_i \ge 0, \sum_{i=1}^k s_i \le 1 \right\}

Man beweist diese Identität durch vollständige Induktion.[2]

Im Gegensatz zu den dividierten Differenzen taucht im Integral in dieser Formel kein Quotient mit der Differenz zweier Stützstellen auf – rein rechnerisch ist es also möglich, konfluente (zusammenfallende) Stützstellen einzusetzen. Stellt man die Formel als

f[x_0,\ldots,x_k] = \frac{1}{k!}f^{(k)}(x_0)

dar, lässt sich diese Identität einfach beweisen.

Offensichtlich kann man folglich durch mehrfaches Verwenden von Stützstellen Ableitungen in der Interpolation berücksichtigen.

Also gilt der folgende Satz:

Hermiteinterpolation[Bearbeiten]

Sei f \in C^k([\alpha, \beta]) und seien \alpha \le x_0 \le x_1 \le \cdots \le x_n \le \beta reelle Stützstellen. Dann erfüllt das Polynom

p(x) := \sum_{i=0}^{n} f[x_0,\ldots,x_i] \prod_{j=0}^{i-1}(x-x_j)

die Interpolationsbedingungen

f^{(\xi)}(x_i) = p^{(\xi)}(x_i) \,\forall x_i  \quad (\xi\ \mathrel{\widehat{=}}\, \xi \text{te Wiederholung einer Stützstelle}).

Darüber hinaus ist diese Lösung eindeutig.

Fehlerabschätzung[Bearbeiten]

Für den Fehler der Hermiteinterpolierten gilt nach dem Fehler in der Taylorentwicklung die obere Schranke

f(x) - p(x) = \frac{f^{(n+1)}(\zeta)}{(n+1)!} \prod_{i=0}^n (x-x_i),\;\zeta \in [\alpha,\beta] , \; f \in C^{n+1}

Im Falle des Gitters

x_0 = \dots = x_k < x_{k+1} < \dots < x_n

gilt:

f(x) - p(x) = \frac{f^{(n+1)}(\zeta)}{(n+1)!} (x-x_0)^{k+1} \prod_{i=k+1}^n (x-x_i)

Berechnung der Interpolierten[Bearbeiten]

Zur praktischen Berechnung der Interpolierten verwendet man wie gehabt das Schema der dividierten Differenzen.

Im Fall x_0 = x_1 = \ldots = x_k muss anstatt der dort verwendeten Formel

f[x_0,\ldots,x_k] = \frac{1}{k!}f^{(k)}(x_0)

berechnet werden.

Zu beachten ist, dass ferner einige Umsortierungen notwendig sind. Im Folgenden sei x_0 = \ldots = x_i = \ldots = x_k = \ldots =x_n:

  • Statt f[x_i,\ldots,x_k] muss man die dividierte Differenz f[x_0,\ldots,x_{k-i}] berechnen
  • Taucht in der Rekursion f[x_i] auf, berechnet man stattdessen f[x_0]
  • In allen Fällen, in denen die Formel aus dem ursprünglichen Neville-Aitken-Schema verwendet wird, ersetzt man jedes x_i durch x_0.

Pseudocode[Bearbeiten]

Der Pseudocode soll verdeutlichen, wie man die verallgemeinerte Form der dividierten Differenzen berechnet. Listen werden im Folgenden als ab 1 indiziert angenommen.

xvals ← Stützstellen
yvals ← Funktionswerte f(x) und ggf. Ableitungen bei mehrfachen x-Werten
zvals ← { f(xvals[i]) | i ∈ 1..#xvals }
for i ← #xvals..1 do
  for ji..#xvals do
    if i = j then
      [xi..xj]fzvals[i]
    else if xvals[i] = xvals[j] then
      index ← Index des ersten Vorkommens von xvals[i] in xvals
      [xi..xj]fyvals[j - i + index] / (j-i)!
    else
      [xi..xj]f ← ([xi+1..xj]f - [xi..xj-1]f) / (xvals[j] - xvals[i])

Historie[Bearbeiten]

Erstmals veröffentlichte Hermite seine Untersuchungen zur Hermiteinterpolation 1878 in: Sur la formule d'interpolation de Lagrange, Journal für die reine und angewandte Mathematik, Band 84, Seite 70-79[3]

Weblinks[Bearbeiten]

 Wikibooks: Hermiteinterpolation – Implementierungen in der Algorithmensammlung

Literatur[Bearbeiten]

  • Richard L. Burden, J. Douglas Faires: Numerische Methoden. Spektrum, Akad. Verlag, Heidelberg/ Berlin/ Oxford 2000, ISBN 3-8274-0596-3.

Einzelnachweise[Bearbeiten]

  1. A. H. Turetskii: The bounding of polynomials prescribed at equally distributed points. In: Proc. Pedag. Inst. Vitebsk; 3; 1940.
    Siehe auch Runges Phänomen
  2.  Ralf Kornhuber, Christof Schütte, AG Numerische Mathematik (Hrsg.): Einführung in die Numerische Mathematik. Freie Universität Berlin April 2008, 3.1.1 Hermite-Interpolation und Taylor’sche Formel, S. 39–45 (Vorlesungsskript, PDF, 2.4 MB).
  3. Elliot Ward Cheney: Introduction to Approximation Theory, McGraw-Hill Book Company, 1966, Library of Congress Catalog Card Number 65-25916, ISBN 007-010757-2, Seite 225 + 242