Intervallarithmetik

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Intervallarithmetik bezeichnet in der Mathematik eine Methodik zur automatisierten Fehlerabschätzung auf Basis abgeschlossener Intervalle. Dabei werden nicht genau bekannte reelle Größen x betrachtet, die aber durch zwei Zahlen a und b eingegrenzt werden können. Dabei kann x zwischen a und b liegen oder auch einen der beiden Werte annehmen. Dieser Bereich entspricht mathematisch gesehen dem Intervall [a,b]. Eine Funktion f, die von einem solchen unsicheren x abhängt, kann nicht genau ausgewertet werden. Es ist schließlich nicht bekannt, welcher Zahlenwert innerhalb von [a,b] für x eigentlich eingesetzt werden müsste. Stattdessen wird ein möglichst kleines Intervall [c,d] bestimmt, das gerade die möglichen Funktionswerte f(x) für alle x \in [a,b] enthält. Durch gezielte Abschätzung der Endpunkte c und d erhält man eine neue Funktion, die wiederum Intervalle auf Intervalle abbildet.

Dieses Konzept eignet sich unter anderem zur Behandlung von Rundungsfehlern direkt während der Berechnung und falls Unsicherheiten in der Kenntnis der exakten Werte physikalischer und technischer Parameter vorliegen. Letztere ergeben sich oft aus Messfehlern und Bauteil-Toleranzen. Außerdem kann Intervallarithmetik dabei helfen, verlässliche Lösungen von Gleichungen und Optimierungsproblemen zu erhalten.

Körpermasseindex für eine 1,80 m große Person in Relation zum Körpergewicht m (in Kilogramm)

Als Beispiel soll hier die Berechnung des Körpermasseindex (BMI von engl. Body Mass Index) betrachtet werden. Der BMI ist die Körpermasse in Kilogramm geteilt durch das Quadrat der Körpergröße in Metern. Zur Illustration soll die Gewichtsbestimmung (eigentlich Massebestimmung) mit Hilfe einer Badezimmerwaage erfolgen, bei der das Gewicht auf ein Kilogramm genau abgelesen werden kann. Es werden also niemals Zwischenwerte bestimmt – etwa 79,6 kg oder 80,3 kg – sondern auf ganze Zahlen gerundete Angaben. Dabei ist es natürlich sehr unwahrscheinlich, dass man wirklich exakt 80,0 kg wiegt, wenn dies angezeigt wird. Bei üblicher Rundung auf den nächstliegenden Gewichtswert liefert die Waage 80 kg für jedes Gewicht zwischen 79,5 kg und 80,5 kg. Den entsprechenden Bereich aller reellen Zahlen, die größer oder gleich 79,5 und gleichzeitig kleiner oder gleich 80,5 sind, kann einfach als Intervall [79.5, 80.5] aufgeschrieben werden. Um Verwechslungen zu vermeiden setzt man meistens einen Punkt statt eines Kommas als Dezimaltrennzeichen.

Für einen Menschen, der 80 kg wiegt und 1,80 m groß ist, liegt der BMI bei ungefähr 24,7. Bei einem Gewicht von 79,5 kg und gleicher Körpergröße müsste aber nur ein Wert von 24,5 angenommen werden, wohingegen 80,5 kg schon fast 24,9 entsprechen. Der tatsächliche BMI liegt also in dem Bereich [24.5, 24.9]. In diesem Fall kann der Fehler in der Praxis zwar noch vernachlässigt werden, jedoch ist das nicht bei allen Rechnungen der Fall. Beispielsweise schwankt das Gewicht auch im Laufe eines Tages, so dass der BMI hier durchaus zwischen 24 (noch normalgewichtig) und 25 (schon übergewichtig) variieren kann. Ohne detaillierte Rechnung können aber nicht immer von vornherein Aussagen darüber getroffen werden, ob ein Fehler letztendlich groß genug ist, um maßgeblichen Einfluss zu haben.

In der Intervallarithmetik wird der Bereich möglicher Ergebnisse ausdrücklich berechnet. Vereinfacht gesagt, rechnet man nicht mehr mit Zahlen, sondern mit Intervallen, die nicht genau bekannte Werte repräsentieren. Ähnlich wie ein Fehlerbalken um einen Messwert drückt ein Intervall das Ausmaß der Unsicherheit bezüglich der zu berechnenden Größe aus. Hierfür werden einfache Rechenoperationen, wie die Grundrechenarten oder trigonometrische Funktionen, für das Rechnen mit Intervallen neu definiert, um äußere Grenzen eines gesuchten Wertebereiches zu erhalten.

Toleranzbehaftete Funktion (türkis) und Intervallnäherung (rot)

Einführung[Bearbeiten]

Das Hauptaugenmerk bei der Intervallarithmetik liegt darauf, auf möglichst einfache Art und Weise obere und untere Schranken für den Wertebereich einer Funktion in einer oder mehreren Variablen zu bestimmen. Dabei müssen diese Schranken nicht unbedingt dem Supremum bzw. Infimum entsprechen, da die genaue Berechnung dieser Werte oft zu schwierig ist. (Es lässt sich zeigen, dass diese Aufgabenstellung im Allgemeinen NP-schwer ist.)

Üblicherweise beschränkt man sich auf die Behandlung abgeschlossener, reeller Intervalle, also Mengen der Form

[a,b] = \{x \in \mathbb{R} \,|\, a \le x \le b\},

wobei auch  a = {-\infty} und  b = {\infty} zulässig sind. Dabei entsprechen [{-\infty}, b] und [a, {\infty}] den meist halboffen geschriebenen Intervallen, die alle reellen Zahlen kleiner oder gleich b bzw. größer oder gleich a umfassen. Entsprechend bezeichnet das Intervall [{-\infty}, {\infty}] die gesamte reelle Achse.

Wie beim klassischen Rechnen mit Zahlen muss zunächst einmal definiert werden, wie die arithmetischen Operationen und elementaren Funktionen auf Intervalle anzuwenden sind. Komplexere Funktionen können dann aus diesen Grundelementen zusammengesetzt werden (Lit.: Kulisch, 1989).

Grundrechenarten[Bearbeiten]

Körpermasseindex für verschiedene Gewichte in Relation zur Körpergröße L (in Metern)

Zu Erläuterung wird nochmal auf das Beispiel vom Anfang zurückgegriffen. Bei der Bestimmung des Körpermasseindex spielt neben dem Gewicht auch die Körpergröße eine Rolle. Diese wird üblicherweise nur in ganzen Zentimetern gemessen werden: eine Angabe der Körpergröße von 1,80 Meter bedeutet also eigentlich eine Körpergröße irgendwo zwischen 1,795 m und 1,805 m. Diese Ungenauigkeit muss zusätzlich zu der Schwankungsbreite beim Gewicht, das zwischen 79,5 kg und 80,5 kg liegt, eingerechnet werden. Für den BMI muss nun wie gesagt die Körpermasse in Kilogramm durch das Quadrat der Körpergröße in Metern geteilt werden. Sowohl für 79,5 kg und 1,795 m als auch für 80,5 kg und 1,805 m ergibt sich dafür ungefähr 24,7. Es muss nun aber auch berücksichtigt werden, dass die fragliche Person möglicherweise nur 1,795 m groß ist bei einem Gewicht von 80,5 kg – oder auch 1,805 m bei 79,5 kg. Auch die Kombinationen aller möglichen Zwischenwerte müssen in die Betrachtung eingehen. Mit Hilfe der im Folgenden festgelegten Intervallarithmetik kann der intervallwertige BMI

[79{,}5; 80{,}5]/([1{,}795; 1{,}805])^2 = [24{,}4; 25{,}0]\,

tatsächlich ausgerechnet werden.

Eine Operation {\langle\!\mathrm{op}\!\rangle} zwischen zwei Intervallen, wobei {\langle\!\mathrm{op}\!\rangle} beispielsweise für Addition oder Multiplikation steht, muss die Bedingung

[x_1, x_2] {\,\langle\!\mathrm{op}\!\rangle\,} [y_1, y_2] = 
\{ x {\,\langle\!\mathrm{op}\!\rangle\,} y \, | \, x \in [x_1, x_2] \,\mbox{und}\, y \in [y_1, y_2] \}

erfüllen. Für die vier Grundrechenarten ergibt sich daraus

\begin{matrix}[x_1, x_2]{\,\langle\!\mathrm{op}\!\rangle\,} [y_1, y_2] & = & {\left[ \min(x_1 {\langle\!\mathrm{op}\!\rangle} y_1, x_1{\langle\!\mathrm{op}\!\rangle} y_2, x_2 {\langle\!\mathrm{op}\!\rangle} y_1, x_2 {\langle\!\mathrm{op}\!\rangle} y_2),
\right.}\\
&& {\left.
\;\max(x_1 {\langle\!\mathrm{op}\!\rangle}y_1, x_1 {\langle\!\mathrm{op}\!\rangle} y_2, x_2
{\langle\!\mathrm{op}\!\rangle} y_1, x_2 {\langle\!\mathrm{op}\!\rangle} y_2) \right]}
\,\mathrm{,}
\end{matrix}

falls x {\,\langle\!\mathrm{op}\!\rangle\,} y zulässig ist für alle x\in [x_1, x_2] und y \in [y_1, y_2].

Für praktische Anwendungen lässt sich dies noch weiter vereinfachen:

Für die Division durch ein Intervall, das die Null enthält, definiert man zunächst einmal

1/[y_1, 0] = [-\infty, 1/y_1] und 1/[0, y_2] = [1/y_2, \infty].

Für y_1 < 0 < y_2 gilt 1/[y_1, y_2] = [-\infty, 1/y_1] \cup [1/y_2, \infty], so dass man eigentlich 1/[y_1, y_2] = [-\infty, \infty] setzten müsste. Dadurch verliert man allerdings die Lücke (1/y_1, 1/y_2) und damit wertvolle Informationen. Üblicherweise rechnet man daher mit den Teilmengen [-\infty, 1/y_1] und [1/y_2, \infty] einzeln weiter.

Weil innerhalb einer Intervallrechnung auch mehrere solcher Aufspaltungen auftreten können, ist es manchmal sinnvoll, das Rechnen mit sogenannten Multi-Intervallen der Form \textstyle \bigcup_{i=1}^l [x_{i1},x_{i2}] zu systematisieren. Die entsprechende Multi-Intervall-Arithmetik pflegt dann eine disjunkte Menge von Intervallen und sorgt dann beispielsweise auch dafür, sich überschneidende Intervalle zu vereinigen (Lit.: Dreyer, 2005).

Da man eine Zahl r\in \mathbb{R} als das Intervall [r,r] interpretieren kann, erhält man sofort eine Vorschrift zur Kombination von intervall- und reellwertigen Größen.

Mit Hilfe dieser Definitionen lässt sich bereits der Wertebereich einfacher Funktionen, wie f(a,b,x) = a \cdot x + b bestimmen. Setzt man beispielsweise a = [1,2], b = [5,7] und x = [2,3], so ergibt sich

f(a,b,x) = ([1,2] \cdot [2,3]) + [5,7] = [1\cdot 2, 2\cdot 3] + [5,7] = [7,13].

Interpretiert man f(a,b,x) als Funktion einer Variablen x mit intervallwertigen Parametern a und b, dann lässt sich die Menge aller Nullstellen dieser Funktionenschar leicht bestimmen. Es gilt dann

f([1,2],[5,7],x) = ([1,2] \cdot x) + [5,7] = 0\Leftrightarrow [1,2] \cdot x = [-7, -5]\Leftrightarrow x = [-7, -5]/[1,2],

die möglichen Nullstellen liegen also im Intervall [-7, {-2.5}].

Multiplikation positiver Intervalle

Wie im obigen Beispiel kann die Multiplikation von Intervallen oft auf die Multiplikation nur zweier Zahlen zurückgeführt werden. Es gilt nämlich

[x_1, x_2] \cdot [y_1, y_2] = [x_1 \cdot y_1, x_2 \cdot y_2] , falls x_1, y_1 \geq 0.

Die Multiplikation lässt sich hier als Flächenbestimmung eines Rechtecks mit variierenden Kantenlängen interpretieren. Das intervallwertige Ergebnis deckt dann alle Werte von der kleinst- bis zu größtmöglichen Fläche ab.

Entsprechendes gilt, wenn eines der beiden Intervalle ganz im nicht-positiven und das andere ganz im nicht-negativen Bereich der reellen Achse liegt. Generell muss bei der Multiplikation noch beachtet werden, dass das Ergebnis sofort auf [{-\infty}, {\infty}] gesetzt werden muss, falls unbestimmte Werte, wie 0 \cdot \infty auftreten. Dies tritt z. B. bei einer Division auf, bei der Zähler und Nenner beide Null enthalten.

Notation[Bearbeiten]

Um intervallwertige Größen leichter in mathematischen Formeln zu erkennen, zweckentfremdet man die eckigen Klammern zur „Markierung“.

Dementsprechend bezeichnet [x] \equiv [x_1, x_2] ein Intervall und die Menge aller reellen Intervalle wird als

[\mathbb{R}] := \big\{\, [x_1, x_2] \,|\, x_1 \leq x_2 \,\mbox{und}\, x_1, x_2 \in \mathbb{R} \cup \{-\infty, \infty\} \big\}

abgekürzt. Für eine Box oder einen Vektor von Intervallen \big([x]_1, \ldots , [x]_n \big) \in [\mathbb{R}]^n verwendet man zusätzlich fetten Schriftschnitt: [\mathbf{x}].

Bei einer derart kompakten Notation ist zu beachten, dass [x] nicht mit einem sogenannten uneigentlichen Intervall [x_1, x_1] verwechselt wird, bei dem obere und untere Grenze übereinstimmen.

Elementare Funktionen[Bearbeiten]

Wertebereich einer monotonen Funktion

Um auch Funktionen mit Intervallmethoden behandeln zu können, deren Terme sich nicht aus den Grundrechenarten ergeben, muss man auch noch weitere elementare Funktionen für Intervalle neu definieren. Dabei nutzt man vorhandene Monotonieeigenschaften aus.

Für monotone Funktionen in einer Variablen lässt sich der Wertebereich ebenfalls leicht bestimmen. Ist f: \mathbb{R} \rightarrow \mathbb{R} monoton steigend oder fallend in einem Intervall [x_1, x_2], dann gilt für alle Werte y_1, y_2 \in [x_1, x_2] mit y_1 \leq y_2 die Ungleichung

f(y_1) \leq f(y_2) , bzw. f(y_1) \geq f(y_2) .

Den Wertebereich des Intervalls [y_1, y_2] \subseteq [x_1, x_2] erhält man durch Auswertung der Funktion an den Endpunkten y_1 und y_2:

f([y_1, y_2]) = \left[\min \big \{f(y_1), f(y_2) \big\}, \max \big\{ f(y_1), f(y_2) \big\}\right].

Daher lassen sich folgende Intervallisierungen elementarer Funktionen leicht definieren:

Es ist außerdem noch wichtig, den Wertebereich für gerade Potenzen bestimmen zu können. Im Gegensatz zur üblichen Numerik ist es hier nicht sinnvoll, die Berechnung auf die Multiplikation zurückzuführen. Beispielsweise bewegt sich x^n für x \in [-1,1] innerhalb des Intervalles [0,1], wenn n = 2, 4, 6, \ldots. Versucht man [-1,1]^n aber durch Multiplikationen der Form [-1,1]\cdot \ldots \cdot [-1,1] zu bestimmen, so erhält man in jedem Fall als Ergebnis [-1,1].

Sinnvoller ist es hier, die Parabel x^n als Zusammensetzung einer monoton fallenden (für x < 0) und einer monoton steigenden Funktion (für x > 0) zu betrachten. Es gilt also für gerade n\in \mathbb{N}:

  • {[x_1, x_2]}^n = [x_1^n, x_2^n], falls x_1 \geq 0,
  • {[x_1, x_2]}^n = [x_2^n, x_1^n], falls x_2 \leq 0,
  • {[x_1, x_2]}^n = [0, \max \{x_1^n, x_2^n \} ], sonst.

Allgemeiner kann man sagen, dass es für stückweise monotone Funktionen ausreicht, diese an den Endpunkten x_1, x_2 eines Intervalls [x_1, x_2], sowie an den in [x_1, x_2] enthaltenen sogenannten kritischen Punkten auszurechnen. Die kritischen Punkte entsprechen hierbei den Stellen, an denen sich die Monotonieeigenschaften ändern.

Dies lässt sich z. B. auf Sinus und Kosinus anwenden, die zusätzlich an Stellen \left( {}^1\!\!/\!{}_2 + {n}\right) \cdot \pi bzw. {n} \cdot \pi für alle n \in \mathbb{Z} ausgewertet werden müssen. Hierbei spielen höchstens fünf Punkte eine Rolle, da man als Ergebnis sofort [-1,1] festlegen kann, wenn das Eingangsintervall mindestens eine ganze Periode enthält. Außerdem müssen Sinus und Kosinus lediglich an den Randpunken neu evaluiert werden, da die entsprechenden Werte an den kritischen Stellen – nämlich -1, 0 , +1 – vorab abgespeichert werden können.

Intervallerweiterungen allgemeiner Funktionen[Bearbeiten]

Im Allgemeinen findet man für beliebige Funktionen keine derart einfache Beschreibung des Wertebereiches. Man kann diese aber oft auf Intervalle ausdehnen. Wenn f:\mathbb{R}^n \rightarrow \mathbb{R} eine Funktion ist, die einen reellwertigen Vektor auf eine reelle Zahl abbildet, dann nennt man [f]:[\mathbb{R}]^n \rightarrow [\mathbb{R}] eine Intervallerweiterung von f, wenn gilt

[f]([\mathbf{x}]) \supseteq \{f(\mathbf{y}) | \mathbf{y} \in [\mathbf{x}]\}.

Dies definiert die Intervallerweiterung nicht eindeutig. So sind beispielsweise sowohl [f]([x_1,x_2]) =[e^{x_1}, e^{x_2}] als auch [g]([x_1,x_2]) =[{-\infty}, {\infty}] zulässige Erweiterungen der Exponentialfunktion. Da möglichst scharfe Erweiterungen gewünscht sind, also solche, die so genau wie möglich den gesuchten Wertebereich approximieren, wird man in diesem Fall eher [f] wählen, da sie sogar den exakten Bereich bestimmt.

Die natürliche Intervallerweiterung erhält man, indem man in der Funktionsvorschrift f(x_1, \cdots, x_n) die Grundrechenarten und elementaren Funktionen durch ihre intervallwertigen Äquivalente ersetzt.

Die Taylor-Intervallerweiterung (vom Grad k ) einer k+1 mal differenzierbaren Funktion f ist definiert durch

[f]([\mathbf{x}]) :=
  f(\mathbf{y}) + \sum_{i=1}^k\frac{1}{i!}\mathrm{D}^i f(\mathbf{y}) \cdot ([\mathbf{x}] - \mathbf{y})^i + [r]([\mathbf{x}], [\mathbf{x}], \mathbf{y})
,

für ein \mathbf{y} \in [\mathbf{x}],

wobei \mathrm{D}^i f(\mathbf{y}) das Differential i-ter Ordnung von f am Punkt \mathbf{y} und [r] eine Intervallerweiterung des Taylorrestgliedes


r(\mathbf{x}, \xi, \mathbf{y}) = \frac{1}{(k+1)!}\mathrm{D}^{k+1} f(\xi) \cdot (\mathbf{x}-\mathbf{y})^{k+1}

bezeichnet.

Mittelwert-Erweiterung

Da der Vektor \xi zwischen \mathbf{x} und \mathbf{y} mit \mathbf{x}, \mathbf{y} \in [\mathbf{x}] liegt, lässt sich \xi ebenfalls durch [\mathbf{x}] abschätzen. Üblicherweise wählt man für \mathbf{y} den Mittelpunkt des Intervallvektors und die natürliche Intervallerweiterung zur Abschätzung des Restgliedes.

Den Spezialfall der Taylor-Intervallerweiterung vom Grad k = 0 bezeichnet man auch als Mittelwert-Intervallerweiterung. Für eine Intervallerweiterung der Jacobi-Matrix [J_f](\mathbf{[x]}) erhält man hier

[f]([\mathbf{x}]) :=
  f(\mathbf{y}) + [J_f](\mathbf{[x]}) \cdot ([\mathbf{x}] - \mathbf{y})
.

Eine nichtlineare Funktion kann so durch lineare Funktionen eingegrenzt werden.

Intervallverfahren[Bearbeiten]

Die Methoden der klassischen Numerik können nicht direkt für die Intervallarithmetik umgesetzt werden, da hierbei Abhängigkeiten meist nicht berücksichtigt werden.

Gerundete Intervallarithmetik[Bearbeiten]

Äußeres Runden bei Gleitkommazahlen

Um effizient mit Intervallen rechnen zu können, muss eine konkrete Implementierung kompatibel zum Rechnen mit Gleitkommazahlen sein. Die oben definierten Operationen basieren auf exakter Arithmetik, die bei schnellen numerischen Lösungsverfahren nicht zur Verfügung steht. Der Wertebereich der Funktion f(x, y) = x + y für x \in [0.1, 0.8] und y \in [0.06, 0.08] wäre beispielsweise [0.16, 0.88]. Führt man die gleiche Rechnung mit einstelliger Präzision durch, so würde das Ergebnis üblicherweise zu [0.2, 0.9] gerundet. Da aber [0.2, 0.9] \not\supseteq [0.16, 0.88] würde dieser Ansatz den Grundprinzipien der Intervallarithmetik widersprechen, da ein Teil des Wertebereiches von f([0.1, 0.8], [0.06, 0.08]) verloren geht. Stattdessen ist hier die nach außen gerundete Lösung [0.1, 0.9] vorzuziehen.

Die Norm IEEE 754 definiert neben Standarddarstellungen binärer Gleitkommazahlen auch genaue Verfahren für die Durchführung von Rundungen. Demnach muss ein zu IEEE 754 konformes System dem Programmierer neben dem mathematischen Runden (zur nächsten Gleitkommazahl) noch weitere Rundungsmodi bereitstellen: immer aufrunden, immer abrunden und Rundung gegen 0 (Ergebnis betragsmäßig verkleinern).

Das benötigte nach außen Runden lässt sich also durch entsprechendes Umschalten der Rundungseinstellungen des Prozessors beim Berechnen von oberer und unterer Grenze bewerkstelligen. Alternativ kann dies durch Hinzuaddition eines geeigneten schmalen Intervalls [\varepsilon_1, \varepsilon_2] erreicht werden.

Abhängigkeitsproblem und Einhüllungseffekt[Bearbeiten]

Überschätzung des Wertebereiches

Das sogenannte Abhängigkeitsproblem ist ein Haupthindernis bei der Anwendung der Intervallarithmetik. Obwohl der Wertebereich der elementaren arithmetischen Operationen und Funktionen mit Intervallmethoden sehr genau bestimmt werden kann, gilt dies nicht mehr für zusammengesetzte Funktionen. Falls ein intervallwertiger Parameter mehrfach in einer Rechnung auftritt, wird jedes Auftreten unabhängig voneinander behandelt. Dies führt zu einer ungewollten Aufblähung der resultierenden Intervalle.

Unabhängige Betrachtung jedes Auftretens einer Variablen

Zur Illustration sei eine Funktion f durch den Ausdruck f(x) = x^2 + x gegeben. Der Wertebereich dieser Funktion über dem Intervall [-1, 1] beträgt eigentlich [-1/4 , 2]. Um die natürliche Intervallerweiterung zu erhalten, rechnet man aber [-1, 1]^2 + [-1, 1] = [0,1] + [-1,1] = [-1,2], was einen etwas größeren Bereich ergibt. In der Tat berechnet man eigentlich Infimum und Supremum der Funktion h(x, y)= x^2+y über x,y \in [-1,1]. Hier würde man also besser eine alternative Formulierung für f verwenden, die die Variable x nur einmal verwendet. In diesem Fall kann man den Ausdruck f(x) = x^2 + x einfach durch quadratische Ergänzung zu f(x) = \left(x + \frac{1}{2}\right)^2 -\frac{1}{4} umformen.

Dann liefert die entsprechende Intervallrechnung

 \left([-1,1] + \frac{1}{2}\right)^2 -\frac{1}{4} = 
 \left[-\frac{1}{2}, \frac{3}{2}\right]^2 -\frac{1}{4} = \left[0, \frac{9}{4}\right] -\frac{1}{4} = \left[-\frac{1}{4},2\right]

auch den richtigen Wertebereich.

Im Allgemeinen lässt sich zeigen, dass man tatsächlich den genauen Wertebereich erhält, wenn jede Variable nur einmal auftaucht. Allerdings lässt sich nicht jede Funktion geeignet auflösen.

Einhüllungs- oder „Wrapping“-Effekt

Die durch das Abhängigkeitsproblem verursachte Überschätzung des Wertebereiches kann soweit gehen, dass das Resultat einen derart großen Bereich umfasst, der keine sinnvollen Schlüsse mehr zulässt.

Eine zusätzliche Vergrößerung des Wertebereichs ergibt sich aus dem Einhüllen von Bereichen, die nicht die Form eines Intervallvektors haben. Die Lösungsmenge des linearen Systems


\begin{matrix}
x &=& y\\
x &=& p
\end{matrix}
für  p\in [-1,1]

ist genau die Gerade zwischen den Punkten (-1,-1) und (1,1). Intervallmethoden liefern hier aber im besten Fall das Quadrat [-1,1] \times [-1,1], das die tatsächliche Lösung einhüllt (Einhüllungs- oder „Wrapping“-Effekt).

Lineare Intervallsysteme[Bearbeiten]

Ein lineares Intervallsystem besteht aus einer intervallwertigen Matrix [\mathbf{A}] \in [\mathbb{R}]^{n\times m} und einem Intervallvektor [\mathbf{b}] \in [\mathbb{R}]^{n}. Gesucht ist dann eine möglichst schmale Box [\mathbf{x}] \in [\mathbb{R}]^{m}, die alle Vektoren \mathbf{x} \in \mathbb{R}^{m} enthält, für die es ein Paar (\mathbf{A}, \mathbf{b}) mit \mathbf{A} \in [\mathbf{A}] und \mathbf{b} \in [\mathbf{b}] gibt, das die Gleichung

\mathbf{A} \cdot \mathbf{x} = \mathbf{b}

erfüllt.

Für quadratische Systeme – also für n = m – lässt sich ein solcher Intervallvektor [\mathbf{x}], der alle möglichen Lösungen enthält, sehr einfach mit dem Intervall-Gauß-Verfahren bestimmen. Hierfür ersetzt man die numerischen Operationen, die bei dem aus der linearen Algebra bekannten gaußschen Eliminationsverfahren auftauchen, durch ihre Intervallversionen. Da allerdings während der Abarbeitung dieser Methode die intervallwertigen Einträge von [\mathbf{A}] und [\mathbf{b}] mehrfach in die Rechnung eingehen, leidet dieser Ansatz sehr stark an dem Abhängigkeitsproblem. Folglich bietet sich der Intervall-Gauß nur für grobe erste Abschätzungen an, die zwar die gesamte Lösungsmenge enthalten, aber auch einen sehr großen Bereich außerhalb davon.

Eine grobe Lösung [\mathbf{x}] kann oft durch eine Intervallisierung des Gauß-Seidel-Verfahrens verbessert werden. Diese ist folgendermaßen motiviert: Die i-te Zeile der intervallwertigen linearen Gleichung


\begin{pmatrix}
 {[a_{11}]} & \cdots & {[a_{1n}]} \\
 \vdots & \ddots & \vdots \\
 {[a_{n1}]} & \cdots & {[a_{nn}]}
\end{pmatrix}
\cdot
\begin{pmatrix}
{x_1} \\
\vdots \\
{x_n}
\end{pmatrix}
=
\begin{pmatrix}
{[b_1]} \\
\vdots \\
{[b_n]}
\end{pmatrix}

lässt sich nach der Variablen x_i auflösen, falls die Division 1/[a_{ii}] erlaubt ist. Es gilt demnach gleichzeitig

x_j \in [x_j] und x_j \in \frac{[b_i]- \sum\limits_{k \not= j} [a_{ik}] \cdot [x_k]}{[a_{ij}]}.

Man kann also nun [x_j] durch

[x_j] \cap \frac{[b_i]- \sum\limits_{k \not= j} [a_{ik}] \cdot [x_k]}{[a_{ij}]}

ersetzen, und so den Vektor [\mathbf{x}] elementweise verbessern. Da das Verfahren effizienter für diagonaldominante Matrizen ist, versucht man oft statt des Systems  [\mathbf{A}]\cdot \mathbf{x} = [\mathbf{b}]\mbox{,} die durch Multiplikation mit einer geeigneten reellen Matrix \mathbf{M} entstandene Matrixgleichung

(\mathbf{M}\cdot[\mathbf{A}])\cdot \mathbf{x} = \mathbf{M}\cdot[\mathbf{b}]

zu lösen. Wählt man beispielsweise \mathbf{M} = \mathbf{A}^{-1} für die Mittelpunktsmatrix \mathbf{A} \in [\mathbf{A}], so ist \mathbf{M} \cdot[\mathbf{A}] eine äußere Näherung der Einheitsmatrix.

Für die oben genannten Methoden gilt allerdings, dass sie nur dann gut funktionieren, wenn die Breite der vorkommenden Intervalle hinreichend klein ist. Für breitere Intervalle kann es sinnvoll sein, ein Intervall-lineares System auf eine endliche (wenn auch große) Anzahl reellwertiger linearer Systeme zurückzuführen. Sind nämlich alle Matrizen \mathbf{A} \in [\mathbf{A}] invertierbar, so ist es vollkommen ausreichend, alle möglichen Kombinationen an (oberen und unteren) Endpunkten der vorkommenden Intervalle zu betrachten. Die resultierenden Teilprobleme können dann mit herkömmlichen numerischen Methoden gelöst werden. Intervallarithmetik wird lediglich noch benutzt, um Rundungsfehler zu bestimmen.

Dieser Ansatz ist allerdings nur für Systeme kleinerer Dimension möglich, da bei einer vollbesetzten n \times n Matrix schon 2^{n^2} reelle Matrizen invertiert werden müssen, mit jeweils 2^n Vektoren für die rechte Seite. Dieser Ansatz wurde von Jiří Rohn noch weitergeführt und verbessert.[1]

Intervall-Newton Verfahren[Bearbeiten]

Reduktion des Suchgebietes im Intervall-Newton-Schritt bei „dicken“ Funktionen

Eine Intervallvariante des Newton-Verfahrens zur Bestimmung der Nullstellen in einem Intervallvektor[\mathbf{x}] lässt sich einfach aus der Mittelwert-Erweiterung ableiten (Lit.: Hansen, 1992). Für einen unbekannten Vektor \mathbf{z}\in [\mathbf{x}] gilt für ein festes \mathbf{y}\in [\mathbf{x}], dass

f(\mathbf{z}) \in f(\mathbf{y}) + [J_f](\mathbf{[x]}) \cdot (\mathbf{z} - \mathbf{y}).

Für eine Nullstelle \mathbf{z} ist f(z)=0, und somit muss

 f(\mathbf{y}) + [J_f](\mathbf{[x]}) \cdot (\mathbf{z} - \mathbf{y})=0 .

erfüllt sein. Man erhält also  \mathbf{z} \in \mathbf{y} - [J_f](\mathbf{[x]})^{-1}\cdot f(\mathbf{y}). Eine äußere Abschätzung von [J_f](\mathbf{[x]})^{-1}\cdot f(\mathbf{y})) kann hierbei durch eines der linearen Verfahren bestimmt werden.

In jedem Newton-Schritt wird nun ein grober Startwert [\mathbf{x}]\in [\mathbb{R}]^n durch [\mathbf{x}]\cap \left(\mathbf{y} - [J_f](\mathbf{[x]})^{-1}\cdot f(\mathbf{y})\right) ersetzt und so iterativ verbessert. Im Gegensatz zum klassischen Verfahren nähert sich diese Methode von außen den Nullstellen. Daher ist garantiert, dass das Ergebnis immer alle Nullstellen im Startwert enthält. Umgekehrt hat man bewiesen, dass f keine Nullstelle in [\mathbf{x}] hat, wenn der Newton-Schritt die leere Menge zurückliefert.

Das Verfahren konvergiert gegen eine Menge, die alle Nullstellen (innerhalb der Startregion) enthält. Durch in diesem Fall vorhandene Divisionen durch Null entstehen oft mehrere Intervallvektoren, die die Nullstellen voneinander trennen. Diese Trennung ist nicht immer vollständig, und kann dann durch Bisektion forciert werden.

Als Beispiel betrachte man die Funktion f(x)= x^2-2, den Startwert [x] = [-2,2] und den Punkt y= 0. Man hat dann  J_f(x) = 2\, x und der erste Newton-Schritt ist gegeben durch

[-2,2]\cap \left(0 - \frac{1}{2\cdot[-2,2]} (0-2)\right) = [-2,2]\cap \Big([{-\infty}, {-0.5}]\cup [{0.5}, {\infty}] \Big).

Es gilt also für eine Nullstelle x\in [{-2}, {-0.5}]\cup \big[{0.5}, {2}\big]. Weitere Newtonschritte werden dann jeweils auf x\in [{-2}, {-0.5}] und [{0.5}, {2}] getrennt angewendet. Diese konvergieren zu beliebig kleinen Intervallen um -\sqrt{2} und +\sqrt{2}.

Das Intervall-Newton-Verfahren lässt sich auch ohne weiteres bei dicken Funktionen anwenden, also Funktionen wie g(x)= x^2-[2,3], die bereits dann Intervalle zurückliefern, wenn man reelle Zahlen einsetzt. Die Lösung besteht dann aus mehreren Intervallen  \left[-\sqrt{3},-\sqrt{2} \right] \cup \left[\sqrt{2},\sqrt{3} \right].

Bisektion und Überdeckungen[Bearbeiten]

Die verschiedenen Intervallmethoden liefern nur äußerst konservative Abschätzungen eines jeweils gesuchten Bereiches, da Abhängigkeiten zwischen den intervallwertigen Größen nicht ausreichend berücksichtigt werden. Das Abhängigkeitsproblem spielt aber eine desto geringere Rolle, je dünner die Intervalle sind.

Überdeckt man einen Intervallvektor [\mathbf{x}] durch kleinere Boxen [\mathbf{x}_1], \cdots , [\mathbf{x}_k]\mbox{,} so dass \textstyle [\mathbf{x}] = \bigcup_{i=1}^k [\mathbf{x}_i]\mbox{,} dann gilt für den Wertebereich \textstyle f([\mathbf{x}]) = \bigcup_{i=1}^k f([\mathbf{x}_i])\mbox{.} Für die oben genannten Intervallerweiterungen gilt dann \textstyle [f]([\mathbf{x}]) \supseteq \bigcup_{i=1}^k [f]([\mathbf{x}_i]). Da [f]([\mathbf{x}]) oft eine echte Obermenge der rechten Seite ist, erhält man somit meist eine verbesserte Abschätzung.

Überschätzung (türkis) und verbesserte Abschätzung durch „Mincing“ (rot)

Eine solche Überdeckung kann zum einen durch Bisektion generiert werden, indem man besonders dicke Elemente [x_{i1}, x_{i2}] des Intervallvektors [\mathbf{x}] = ([x_{11}, x_{12}], \cdots, [x_{n1}, x_{n2}]) beispielsweise in der Mitte teilt und durch zwei Intervalle [x_{i1}, (x_{i1}+x_{i2})/2] und [(x_{i1}+x_{i2})/2, x_{i2}] ersetzt. Sollte das daraus folgende Resultat immer noch nicht geeignet sein, kann sukzessive weiter zerlegt werden. Hierbei gilt allerdings zu beachten, dass durch r geteilte Vektorelemente eine Überdeckung aus 2^r Intervallvektoren entsteht, was den Rechenaufwand natürlich stark erhöht.

Bei sehr breiten Intervallen kann es sogar sinnvoll sein, alle Intervalle gleich in mehrere Teilintervalle mit (kleiner) konstanter Breite zu zerlegen („Mincing“). Damit spart man die Zwischenrechnung für die einzelnen Bisektionsschritte. Beide Herangehensweisen sind allerdings nur für Probleme niedriger Dimension geeignet.

Anwendung[Bearbeiten]

Die Intervallarithmetik kommt auf verschiedenen Gebieten zum Einsatz, um Größen zu behandeln, für die keine genauen Zahlenwerte festgelegt werden können (Lit.: Jaulin u. a., 2001).

Rundungsfehleranalyse[Bearbeiten]

Die Intervallarithmetik wird bei der Fehleranalyse angewendet, um Kontrolle über die bei jeder Berechnung auftretenden Rundungsfehler zu bekommen. Der Vorteil der Intervallarithmetik liegt darin, dass man nach jeder Operation ein Intervall erhält, welches das Ergebnis sicher einschließt. Aus dem Abstand der Intervallgrenzen kann man den aktuellen Berechnungsfehler direkt ablesen:

Fehler = \mathrm{abs}(a-b) für gegebenes Intervall [a,b].

Intervallanalyse bietet hierbei keinen Ersatz für die klassischen Methoden zur Fehlerreduktion, wie Pivotisierung, sondern ergänzt diese lediglich.

Toleranzanalyse[Bearbeiten]

Bei der Simulation technischer und physikalischer Prozesse treten oft Parameter auf, denen keine exakten Zahlenwerte zugeordnet werden können. So unterliegt der Produktionsprozess technischer Bauteile gewissen Toleranzen, so bestimmte Parameter innerhalb bestimmter Intervalle schwanken können. Außerdem können viele Naturkonstanten nicht mit beliebiger Genauigkeit gemessen werden (Lit.: Dreyer, 2005).

Wird das Verhalten eines solchen toleranzbehafteten Systems beispielsweise durch eine Gleichung f(\mathbf{x}, \mathbf{p}) = 0, für  \mathbf{p} \in [\mathbf{p}] und Unbekannten \mathbf{x}, beschrieben, dann kann die Menge aller möglichen Lösungen

\{\mathbf{x}\,|\, \exists \mathbf{p} \in [\mathbf{p}], f(\mathbf{x}, \mathbf{p})= 0\},

durch Intervallmethoden abgeschätzt werden. Diese stellen hier eine Alternative zur klassischen Fehlerrechnung dar. Im Gegensatz zu punktbasierten Methoden, wie der Monte-Carlo-Simulation, stellt die verwendete Methodik sicher, dass keine Teile des Lösungsgebietes übersehen werden. Allerdings entspricht das Ergebnis immer einer Worst Case-Analyse für gleichverteilte Fehler, andere Wahrscheinlichkeitsverteilungen sind nicht möglich.

Fuzzy-Arithmetik[Bearbeiten]

Approximation der Normalverteilung durch eine Sequenz von Intervallen

Intervallarithmetik kann auch dazu verwendet werden, beliebige Zugehörigkeitsfunktionen für unscharfe Mengen wie sie in der Fuzzy-Logik benutzt werden anzunähern. Neben den strikten Aussagen x\in [x] und x \not\in [x] sind hier auch Zwischenwerte möglich, denen reelle Zahlen \mu \in [0,1] zugeordnet werden. Dabei entspricht \mu = 1 der sicheren Zugehörigkeit und \mu = 0 der Nichtzugehörigkeit. Eine Verteilungsfunktion ordnet jedem dieser Werte einen gewissen Schwankungsbereich zu, den man wieder als Intervall auffassen kann.

Für die Fuzzy-Arithmetik[2] werden nur endlich viele diskrete Zugehörigkeitsstufen \mu_i \in [0,1] betrachtet. Die Form einer solchen Verteilung für einen unscharfen Wert kann dann durch eine Reihe von Intervallen

\left[x^{(1)}\right] \supset \left[x^{(2)}\right] \supset \cdots \supset \left[x^{(k)} \right]

angenähert werden. Dabei entspricht das Intervall [x^{(i)}] genau dem Schwankungsbereich für die Stufe \mu_i.

Die entsprechende Verteilung für eine Funktion f(x_1, \cdots, x_n) bezüglich unscharfer Werte x_1, \cdots, x_n und den entsprechenden Sequenzen \left[x_1^{(1)} \right] \supset \cdots \supset \left[x_1^{(k)} \right], \cdots ,
\left[x_n^{(1)} \right] \supset \cdots \supset \left[x_n^{(k)} \right]
lässt sich dann durch die Intervallsequenz \left[y^{(1)}\right] \supset \cdots \supset \left[y^{(k)}\right] approximieren. Die Werte \left[y^{(i)}\right] sind gegeben durch \left[y^{(i)}\right] = f \left( \left[x_{1}^{(i)}\right], \cdots \left[x_{n}^{(i)}\right]\right) und können durch Intervallverfahren abgeschätzt werden. Dabei entspricht \left[y^{(1)}\right] dem Ergebnis einer Intervallrechnung.

Geschichtliches[Bearbeiten]

Intervallarithmetik ist keine völlig neue Erscheinung in der Mathematik und tauchte bereits mehrfach unter verschiedenen Namen im Laufe der Geschichte auf. So berechnete Archimedes bereits im 3. Jahrhundert v. Chr. obere und untere Schranken für die Kreiszahl Pi. Allerdings wurde das eigentliche Rechnen mit Intervallen nie so populär wie andere numerische Techniken, wurde aber nie völlig vergessen.

Regeln für das Rechnen mit Intervallen und anderen Teilmengen der reellen Zahlen finden sich schließlich in einer 1931 veröffentlichten Arbeit von Rosalind Tanner (Rosalind Cecily Young), einer Doktorandin von Ernest William Hobson an der Universität Cambridge. Arbeiten für eine Arithmetik von range numbers („Bereichszahlen“) in Hinblick auf eine Verbesserung und Zuverlässigkeit digitaler Systeme finden sich dann in einem 1951 veröffentlichten Lehrbuch zur linearen Algebra von Paul S. Dwyer (University of Michigan). Hier werden Intervalle tatsächlich dafür eingesetzt, die Rundungsfehler bei Gleitkommazahlen abzuschätzen.

Als Geburtsstunde der modernen Intervallarithmetik wird das Erscheinen des Buches Interval Analysis von Ramon E. Moore im Jahr 1966 (Lit.: Moore) angesehen. Die Idee dazu hatte er im Frühjahr 1958, und bereits ein knappes Jahr später veröffentlichte er einen Artikel über computerunterstützte Intervallarithmetik.[3] Sein Verdienst ist es, dass aus einem einfachen Prinzip eine allgemeingültige Methode zur automatisierten Fehleranalyse wurde, mit deren Hilfe nicht nur der Einfluss von Rundungen bestimmt werden konnte.

Unabhängig davon hatte Mieczyslaw Warmus zwar schon 1956 Formeln für das Rechnen mit Intervallen vorgeschlagen,[4] bei Moore fanden sich aber neben Implementierungshinweisen auch erste nicht-triviale Anwendungen.

In Deutschland hatten sich in den 1960er Jahren Forschergruppen um Karl Nickel[5] (Universität Karlsruhe; ab 1976: Universität Freiburg), Ulrich Kulisch (Lit.: Kulisch) (Universität Karlsruhe) und Fritz Krückeberg (Lit.: Krückeberg) (Universität Bonn; ab 1968: Gesellschaft für Mathematik und Datenverarbeitung, Sankt Augustin) etabliert, in denen zahlreiche Diplom- und Doktorarbeiten[6] zu intervallarithmetischen Themen entstanden.

Das erste internationale Symposium über Intervallanalysis (Lit.: Hansen) veranstaltete das Oxford University Computing Laboratory im Januar 1968 in Culham, England. Der Tagungsband wurde von Eldon R. Hansen herausgegeben, der auch später sehr aktiv auf dem Gebiet war (Lit.: Hansen, Walster).

Karl Nickel war die Triebfeder hinter fünf Workshops zur Intervallarithmetik[7], die 1968–1976 im mathematischen Forschungsinstitut Oberwolfach stattfanden und wo sich deutschsprachige Forscher über ihre Arbeiten austauschten. Er organisierte 1975, 1980 und 1985 (Lit.: Nickel) internationale Symposien zur Intervallmathematik, wobei er den Begriff Intervallmathematik prägte. Eine Intervallbibliothek, in der Software zur Intervallarithmetik systematisch gesammelt wurde, war in seinem Institut angesiedelt. Von 1978 bis 1987 gab er die Zeitschrift “Freiburger Intervall-Berichte” heraus. Er war Gründer und Vorsitzender des GAMM-Ausschuss Intervallmathematik.

Zwei Schüler von Ulrich Kulisch, Götz Alefeld und Jürgen Herzberger, veröffentlichten 1974 das erste deutschsprachige Lehrbuch (Lit.: Alefeld und Herzberger) zur Intervallarithmetik.

Seit den 90ern wird das Journal Reliable Computing (ursprünglich Interval Computations) herausgegeben, das sich der Zuverlässigkeit computerunterstützter Berechnungen widmet. Als leitender Redakteur hat R. Baker Kearfott neben seinen Arbeiten zur globalen Optimierung wesentlich zur Vereinheitlichung der Notation und Begrifflichkeiten der Intervallarithmetik beigetragen (Web: Kearfott).

In jüngerer Zeit sind insbesondere die Arbeiten zur Abschätzung des Urbildes parametrisierter Funktionen und zur robusten Kontrolle von der COPRIN-Arbeitsgruppe des INRIA im französischen Sophia Antipolis zu erwähnen (Web: INRIA).

Patente[Bearbeiten]

Einer der wesentlichen Förderer der Intervallarithmetik, G. William Walster von Sun Microsystems, hat in den Jahren 2003/04 – teilweise zusammen mit Ramon E. Moore und Eldon R. Hansen – mehrere Patente im Bereich der Intervallarithmetik beim U.S. Patent and Trademark Office angemeldet.[8] Die Gültigkeit dieser Ansprüche ist jedoch in der Intervallarithmetik-Forschungsgemeinde stark umstritten, da sie möglicherweise lediglich den bisherigen Stand der Technik wiedergeben.

Implementierungen[Bearbeiten]

Es gibt viele Softwarepakete, welche die Entwicklung numerischer Anwendungen unter Nutzung der Intervallarithmetik erlauben.[9] Diese sind meist in Form von Programmbibliotheken umgesetzt.[10] Es gibt allerdings auch C++- und Fortran-Übersetzer, welche Intervall-Datentypen und entsprechend geeignete Operationen als Spracherweiterung[11] besitzen, so dass Intervallarithmetik direkt unterstützt wird.

Seit 1967 entwickelte man zunächst an der Universität Karlsruhe XSC-Erweiterungen für wissenschaftliches Rechnen („Extensions for Scientific Computation“) für verschiedene Programmiersprachen, darunter C++, Fortran und Pascal.[12] Plattform war zunächst ein Zuse Z 23, für den ein neuer Intervall-Datentyp mit entsprechenden elementaren Operatoren zur Verfügung gestellt wurde.

1976 folgte mit Pascal-SC eine Pascal-Variante auf einem Zilog Z80, die es ermöglichte, schnell komplexe Routinen für automatisierte Ergebnisverifikation zu schaffen. Es folgte das Fortran 77-basierte ACRITH-XSC für die System/370-Architektur, das später auch von IBM ausgeliefert wird. Ab 1991 kann man mit Pascal-XSC dann Code für C-Compiler erzeugen, und ein Jahr später unterstützt die C++-Klassenbibliothek C-XSC bereits viele verschiedene Computersysteme. 1997 werden alle XSC-Varianten unter die General Public License gestellt und stehen so frei zu Verfügung. Anfang der 2000er-Jahre wurde C-XSC 2.0 unter Federführung der Arbeitsgruppe für wissenschaftliches Rechnen an der Bergischen Universität Wuppertal neugestaltet, um dem mittlerweile verabschiedeten C++-Standard besser entsprechen zu können.

Eine weitere C++-Klassenbibliothek ist das 1993 an der TU Hamburg-Harburg geschaffene Profil/BIAS („Programmer’s Runtime Optimized Fast Interval Library, Basic Interval Arithmetic“), das die üblichen Intervalloperationen benutzerfreundlich zur Verfügung stellt. Dabei wurde besonderen Wert auf die effiziente Ausnutzung der Hardware, Portabilität und Unabhängigkeit von einer speziellen Intervalldarstellung gelegt.

Die Boost-Sammlung von C++-Bibliotheken enthält ebenfalls eine Template-Klasse für Intervalle. Deren Autoren bemühen sich derzeit um eine Aufnahme der Intervallarithmetik in den C++-Sprachstandard.[13]

Heute können außerdem die gängigen Computeralgebrasysteme, wie Mathematica, Maple und MuPAD, mit Intervallen umgehen. Außerdem gibt es für Matlab die Erweiterung Intlab, die auf BLAS-Routinen aufbaut, sowie die Toolbox b4m, die ein Profil/BIAS-Interface zur Verfügung stellt.[14]

Siehe auch[Bearbeiten]

IEEE-Standard P1788[Bearbeiten]

Ein IEEE-Standard für Intervallarithmetik[15] wird zur Zeit entwickelt.

Referenzen[Bearbeiten]

Literatur[Bearbeiten]

  • Götz Alefeld, Jürgen Herzberger: Einführung in die Intervallrechnung. (= Informatik, Band 12). Bibliographisches Institut, B.I.-Wissenschaftsverlag, Mannheim/ Wien/ Zürich 1974, ISBN 3-411-01466-0.
  • H. Bauch, K.-U. Jahn, D. Oelschlägel, H. Süße, V. Wiebigke: Intervallmathematik. BSB Teubner, Leipzig 1987, ISBN 3-322-00384-1.
  • Alexander Dreyer: Interval Analysis of Analog Circuits with Component Tolerances. Doktorarbeit. Shaker Verlag, Aachen 2003, ISBN 3-8322-4555-3.
  • Eldon R. Hansen (Ed.): Topics in Interval Analysis. Symposium on Interval Analysis, Culham, England, 1968. Clarendon Press, Oxford (1969), ISBN 0-1985-3333-0.
  • Eldon Hansen, G. William Walster: Global Optimization using Interval Analysis. 2. überarb. Auflage. Marcel Dekker, New York 2004, ISBN 0-8247-4059-9.
  • L. Jaulin, M. Kieffer, O. Didrit, É. Walter: Applied Interval Analysis: With examples in parameter estimation robust control and robotics. Springer, London 2001, ISBN 1-85233-219-0.
  • Fritz Krückeberg: Intervallanalytische Methoden in der numerischen Datenverarbeitung. In: Der Minister für Wissenschaft und Forschung des Landes Nordrhein-Westfalen, Landesamt für Forschung, Jahrbuch 1970, Westdeutscher Verlag Opladen (1971).
  • Ulrich Kulisch: Wissenschaftliches Rechnen mit Ergebnisverifikation. Eine Einführung. Vieweg-Verlag, Wiesbaden 1989, ISBN 3-528-08943-1.
  • R. E. Moore: Interval Analysis. Prentice-Hall, Englewood Cliff, NJ 1966, ISBN 0-13-476853-1.
  • Karl Nickel (Ed.): Interval Mathematics: Proceedings of the International Symposium, Karlsruhe, West Germany, May 20-24, 1975. Lecture Notes in Computer Science 29, Springer 1975, ISBN 3-540-07170-9
  • Karl Nickel (Ed.): Interval Mathematics 1980, Academic Press, New York, London, Toronto 1980.
  • Karl Nickel (Ed.): Interval Mathematics 1985: Proceedings of the International Symposium, Freiburg i. Br., Federal Republic of Germany, September 23-26, 1985. Lecture Notes in Computer Science 212, Springer 1986, ISBN 3-540-16437-5

Weblinks[Bearbeiten]

Quellen[Bearbeiten]

  1. Veröffentlichungen von Jiří Rohn (Version vom 7. September 2007 im Internet Archive)
  2. Fuzzy-Methoden, Zusammenstellung von Michael Hanss, Universität Stuttgart
  3. Abhandlung über frühe Artikel von R. E. Moore
  4. Frühe Arbeiten von M. Warmus
  5. Nickel obituary
  6. Doktoranden Nickel; Kulisch; Krückeberg
  7. Mathematisches Forschungsinstitut Oberwolfach, Tagungsberichte Intervallrechnung 1968; 1969; 1972; 1973; 1976
  8. Patentschriften unter Anwendung von Intervallarithmetik beim U.S. Patent and Trademark Office
  9. Software für Intervallrechnungen, zusammengestellt von Vladik Kreinovich, University of Texas, El Paso
  10. Beispiel einer Intervallarithmetik-Klasse in C++ von Sun Microsystems
  11. C++- und Fortran-Compiler mit Intervallunterstützung von Sun Microsystems
  12. Geschichte der XSC-Erweiterungen (Version vom 29. September 2007 im Internet Archive)
  13. Vorschlag für eine Erweiterung der C++-Standards um Intervalle
  14. INTerval LABoratory und b4m (Version vom 1. Mai 2008 im Internet Archive)
  15. IEEE Interval Standard Working Group - P1788