Variation (Mathematik)

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Dieser Artikel behandelt die Variation einer Funktion. Das Stichwort Totale Variation leitet hierher. Für die Totale Variation in der Maßtheorie siehe Signiertes Maß und Vektorielles Maß. Für Variationen in der Kombinatorik siehe Variation (Kombinatorik).

In der Mathematik, vor allem der Variationsrechnung und der Theorie der stochastischen Prozesse, ist die Variation (auch totale Variation genannt) einer Funktion ein Maß für das lokale Schwingungsverhalten der Funktion. Bei den stochastischen Prozessen ist die Variation von besonderer Bedeutung, da sie die Klasse der zeitstetigen Prozesse in zwei fundamental verschiedene Unterklassen unterteilt: jene mit endlicher und solche mit unendlicher Variation.

Definition[Bearbeiten]

Sei f\colon [a,b] \to \R eine Funktion auf dem reellen Intervall [a,b]. Die Variation  |f|_{[a,b]} von f ist definiert durch

 |f|_{[a,b]} := \sup\left\{ \left.\sum_{k=0}^{n-1} \left|f\left(t_{k+1}^{(n)}\right)-f\left(t_{k}^{(n)}\right)\right|\ \right| n\in\mathbb{N}, a\le t_0^{(n)} < t_1^{(n)} \dotsb < t_n^{(n)}\le b\right\},

also durch die kleinste obere Schranke (Supremum), die alle Summen majorisiert, die sich durch eine beliebig feine Unterteilung a\le t_0^{(n)} < t_1^{(n)} \dotsb < t_n^{(n)}\le b des Intervalls [a,b] ergeben. (Falls sich keine reelle Zahl finden lässt, die alle Summen majorisiert, so wird das Supremum auf plus unendlich gesetzt.)

Für stückweise monotone, stetige Funktionen gilt der folgende Satz:

Ist  f\colon [a,b] \to \R in den Intervallen [t_0,t_1],[t_1,t_2],\ldots, [t_{n-1},t_n] mit a = t_0, b = t_n jeweils monoton steigend oder fallend, so gilt für die Variation von f die Gleichung

|f|_{[a,b]}= \sum_{k=0}^{n-1} |f(t_{k+1})-f(t_{k})| .

Obige Definition der Variation lässt sich auf Funktionen übertragen, die auf unbeschränkten Intervallen definiert sind, und auf solche, die Werte in den komplexen Zahlen oder in normierten Vektorräumen annehmen.

Beispiel einer stetigen Funktion mit unendlicher Variation[Bearbeiten]

Wir wollen zeigen, dass für die auf dem Einheitsintervall [0,1] stetige Funktion

f(t)=\begin{cases} 0&\mbox{falls }t=0,\\ t\cos\frac\pi{2t}&\mbox{falls }t\in(0,1],\end{cases}

|f|_{[0,1]}=\infty gilt. Für jedes n\in\mathbb{N} seien

t_k^{(n)}=\begin{cases}0&\mbox{falls }k=0,\\\frac1{n+1-k}&\mbox{falls }k\in\{1,\dots,n\}.\end{cases}

Dann ist (Zeichnung anfertigen!)

\sum_{k=0}^{2n-1}\left|f(t_{k+1}^{(2n)})-f(t_k^{(2n)})\right|=\dotsb=\sum_{l=1}^n\frac1l

was wegen der Divergenz der harmonischen Reihe für n\to\infty gegen unendlich strebt.

Anwendung in der Variationsrechnung[Bearbeiten]

In der Variationsrechnung begegnet man häufig Optimierungsproblemen der folgenden Art:

\min_{f \in \mathcal{C}} |f|_{[a,b]},

wobei  \mathcal{C} eine vorgegebene Menge von Funktionen ist, etwa alle zweimal stetig differenzierbaren Funktionen mit zusätzlichen Eigenschaften wie

 f(a)=0,\ f(b)=1,\ f\left(\frac{2a+b}{3}\right)=-f\left(\frac{a+2b}{3}\right).

Ähnliche Probleme führen beispielsweise zur Definition der Splines.

Ein weiterer Grund für die Verbreitung der Variation in Optimierungsproblemen ist die folgende Feststellung: Beschreibt die Funktion f den Verlauf eines Objekts in einem eindimensionalen Raum im Laufe der Zeit, dann gibt |f|_{[a,b]} gerade die im Zeitraum [a,b] zurückgelegte Strecke an.

Anwendung in der Stochastik[Bearbeiten]

In der Theorie der stochastischen Prozesse spielt der Begriff der Variation eine besondere Rolle: Eine wichtige Charakterisierung von Prozessen (neben der Einteilung in Klassen wie Markov-, Lévy- oder Gauß-Prozesse) besteht in ihrer Eigenschaft, über endlichen Intervallen fast sicher endliche oder unendliche Variation aufzuweisen:

  • Beispiel für einen Prozess fast sicher endlicher Variation: für einen Poisson-Prozess  (N_t),\; t\ge 0 mit Intensität  \lambda gilt wegen der Monotonie  |N|_{[0,t]} \sim \mathrm{Poi}(\lambda t);
  • Beispiel für einen Prozess fast sicher unendlicher Variation: der Wiener-Prozess hingegen hat fast sicher unendliche Variation auf jedem Intervall  [0,t],\;t> 0.

Für die Anwendung des Wiener-Prozesses in der Physik zur Erklärung der Brownschen Molekularbewegung hat diese Eigenschaft fatale Folgen: Ein Partikel, dessen Bewegung einem Wiener-Prozess folgt, würde in jedem Zeitintervall eine unendliche Strecke zurücklegen – im krassen Widerspruch zu den Gesetzen der Physik. Ein solches Teilchen hätte keine definierte Momentangeschwindigkeit (insbesondere nicht einmal eine Bewegungsrichtung) und erst recht keine definierte Beschleunigung, sodass es sinnlos ist, über auf das Teilchen wirkende Kräfte zu sprechen (vgl. Zweites newtonsches Gesetz).

Quadratische Variation[Bearbeiten]

Eine weitere interessante Eigenschaft des Wiener-Prozesses hängt ebenfalls mit dessen Variation zusammen: Ersetzt man in der obigen Definition

|f(t_{i+1}^{(n)})-f(t_{i}^{(n)})| durch (f(t_{i+1}^{(n)})-f(t_{i}^{(n)}))^2,

so gelangt man zum Begriff der quadratischen Variation [X,X]_t eines stochastischen Prozesses X auf dem Intervall [0,t] (für t \ge 0):

[X,X]_t := \sup\left\{ \left.\sum_{k=0}^{n-1} \left(X\left(t_{k+1}^{(n)}\right)-X\left(t_{k}^{(n)}\right)\right)^2\ \right| n\in\mathbb{N}, 0\le t_0^{(n)} < t_1^{(n)} \dotsb < t_n^{(n)}\le t\right\}\;.

Ein wichtiges Resultat, das sich beispielsweise im Lemma von Itō niederschlägt, ist das folgende: Ist W ein (Standard-)Wiener-Prozess, so gilt für dessen quadratische Variation fast sicher

\!\,[W,W]_t = t.

Im Allgemeinen unterscheidet man zwei Formen der quadratischen Variation/Kovariation.

1. Es sei (X_t,\mathcal{F}_t)_{t\geq} ein L^2-Martingal. Dann heißt der eindeutig bestimmte, wachsende Prozess (A_t)_{t\geq0} aus der Doob-Meyer-Zerlegung von X^2, X^2_t=X_0+M_t+A_t mit (M_t)_{t\geq0} Martingal und (A_t)_{t\geq0} vorhersehbarer wachsender Prozess, die vorhersehbare (predictable) quadratische Variation oder (angle) bracket von (X_t)_{t\geq0}. Schreibweise \langle X, X \rangle_t oder kurz \langle X\rangle_t.
Die vorhersehbare quadratische Kovariation für zwei L^2-Martingale (X_t,\mathcal{F}_t)_{t\geq0} und (Y_t,\mathcal{F}_t)_{t\geq0} wird definiert als:
 \langle X,Y\rangle_t=\frac{1}{4}\left(\langle X+Y,X+Y\rangle_t -\langle X-Y,X-Y\rangle_t\right).
2. Die quadratische Kovariation zweier Semimartingale (X_t)_{t\geq0} und (Y_t)_{t\geq0} bzw. die quadratische Variation von (X_t)_{t\geq0}, wenn Y=X, ist der folgende Prozess:
 [X,Y]_t=X_tY_t -X_0 Y_0 - \int_0^t (X_{s-}){\rm d}Y_s - \int_0^t (Y_{s-}){\rm d}X_s.

Beziehung zwischen den beiden Definitionen:

Es seien (X_t)_{t\geq0} und (Y_t)_{t\geq0} zwei Semimartingale. Dann gilt für alle t\geq0
[X,Y]_t= \langle X^c,Y^c\rangle_t + \sum_{0<s\leq t}\Delta X_s\Delta Y_s,

wobei mit X^c und Y^c die stetigen Martingalteile bezeichnet werden.

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

  •  Philip Protter: Stochastic Integration and Differential Equations. 2. Auflage. Springer, Berlin 2003, ISBN 978-3-540-00313-7.
  •  Jean Jacod and Albert N. Shiryaev: Limit Theorems for Stochastic Processes. Springer, 1987, ISBN 3-540-17882-1.