„Gauß-Prozess“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
[gesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
→‎Kovarianzfunktion: Mehr Infos + Verständlichkeit verbessert
Zeile 74: Zeile 74:
== Kovarianzfunktion ==
== Kovarianzfunktion ==
=== Satz von Bochner ===
=== Satz von Bochner ===
Eine große Klasse von Kovarianzfunktionen erhält man dadurch, wenn man die [[Fourier-Transformation]] eines symmetrischen Wahrscheinlichkeitsmaßes auf <math>\R</math> berechnet
Eine große Klasse von Kovarianzfunktionen erhält man dadurch, wenn man die [[Fourier-Transformation]] eines symmetrischen Wahrscheinlichkeitsmaßes <math>\mu</math> auf <math>\R</math> berechnet
:<math>\varphi(t)=\int_{-\infty}^{\infty}e^{itx}\mu(dx)</math>
:<math>\varphi(t)=\int_{-\infty}^{\infty}e^{itx}\mu(dx)</math>
und dann
und dann
Zeile 83: Zeile 83:


=== Gaußsche Markow-Prozesse ===
=== Gaußsche Markow-Prozesse ===
Gaußsche Markow-Prozesse sind Gauß-Prozesse, welche auch [[Markow-Prozess]]e sind. Alle reellen gaußschen Markow-Prozesse besitzen eine Kovarianzfunktion der Form
Gaußsche Markow-Prozesse sind Gauß-Prozesse, welche auch [[Markow-Prozess]]e sind. Folgende zwei Resultate zur Kovarianzfunktion sind bekannt:

Ein reeller Gaußscher Prozess ist genau dann ein Markow-Prozess, wenn für alle <math>s\leq t\leq u</math> auch
:<math>\gamma(s,t)\gamma(t,u)=\gamma(t,t)\gamma(s,u)</math>
gilt.<ref>{{Literatur|Autor=I. S. Borisov|Titel=On a Criterion for Gaussian Random Processes to Be Markovian|Sammelwerk=Theory of Probability \& Its Applications|Band=27|Nummer=4|Seiten=863-865|Datum=1983|DOI=10.1137/1127097}}</ref>

Alle reellen gaußschen Markow-Prozesse besitzen eine Kovarianzfunktion der Form
:<math>\gamma(s,t)=f(\min(s,t))g(\max(s,t)),</math>
:<math>\gamma(s,t)=f(\min(s,t))g(\max(s,t)),</math>
wobei <math>f(x),g(x)</math> reelle Funktionen sind. Beispiele:<ref>{{Literatur|Autor=Mikhail Lifshits|Datum=2012|Titel=Lectures on Gaussian Processes|Reihe=SpringerBriefs in Mathematics|Hrsg=Springer|Ort=Berlin, Heidelberg|Seiten=11|DOI=10.1007/978-3-642-24939-6}}</ref>
wobei <math>f(x),g(x)</math> reelle Funktionen sind. Beispiele:<ref>{{Literatur|Autor=Mikhail Lifshits|Datum=2012|Titel=Lectures on Gaussian Processes|Reihe=SpringerBriefs in Mathematics|Hrsg=Springer|Ort=Berlin, Heidelberg|Seiten=11|DOI=10.1007/978-3-642-24939-6}}</ref><ref>{{Literatur|Autor=I. S. Borisov|Titel=On a Criterion for Gaussian Random Processes to Be Markovian|Sammelwerk=Theory of Probability \& Its Applications|Band=27|Nummer=4|Seiten=863-865|Datum=1983|DOI=10.1137/1127097}}</ref>
* ''Brownsche Bewegung'':
* ''Brownsche Bewegung'':
::<math>\gamma(s,t)=\min(s,t)</math>
::<math>\gamma(s,t)=\min(s,t)</math>
* ''Brownsche Brücke'':
* ''Brownsche Brücke'':
::<math>\gamma(s,t)=\min(s, t)(1 -\max(s,t))=\min(s,t)-st</math>
::<math>\gamma(s,t)=\min(s,t)-st=\min(s, t)(1 -\max(s,t))</math>
* ''stationärer Ornstein-Uhlenbeck-Prozess'':
* ''stationärer Ornstein-Uhlenbeck-Prozess'':
::<math>\gamma(s,t)=a e^{-b|s-t|/2}=ae^{b\min(s, t)/2}e^{-b\max(s, t)/2}</math>
::<math>\gamma(s,t)=a e^{-b|s-t|/2}=ae^{b\min(s, t)/2}e^{-b\max(s, t)/2},\quad a,b>0</math>
* ''nicht-stationärer Ornstein-Uhlenbeck-Prozess'':
::<math>\gamma(s,t)=a\left(e^{-b|s-t|}-e^{-b(s+t)}\right)=ae^{-b(s+t)}\left(e^{-2b\min(s,t)}-1\right),\quad a,b>0</math>

==== Bemerkung ====
* Der ''stationäre Ornstein-Uhlenbeck-Prozess'' ist der einzige gaußsche Markow-Prozess, der zugleich stationär ist <math>\gamma(s+h,t+h)=\gamma(s,t)</math>.<ref>{{Literatur|Autor=Olav Kallenberg |Hrsg=Springer |Titel=Foundations of Modern Probability |Datum=2021 |Seiten=303 |DOI=10.1007/978-3-030-61871-1}}</ref>


== Beispiele ==
== Beispiele ==

Version vom 28. August 2023, 11:30 Uhr

Ein Gauß-Prozess oder Gaußscher Prozess (nach Carl Friedrich Gauß) ist in der Wahrscheinlichkeitstheorie ein stochastischer Prozess, dessen sämtliche endlichdimensionalen Verteilungen mehrdimensionale Normalverteilungen sind. Eine Besonderheit eines Gauß-Prozesses ist, dass seine Wahrscheinlichkeitsverteilung festliegt, wenn die Erwartungswerte, Varianzen und Kovarianzen für alle Zufallsvariablen, die den Gauß-Prozess bilden, festgelegt sind. Die Parameter eines Gauß-Prozesses sind daher seine Erwartungswertfunktion und seine Kovarianzfunktion.

Formale Charakterisierung

Definition

Ein (reellwertiger) Gauß-Prozess ist ein stochastischer Prozess auf einer beliebigen Indexmenge , wenn seine endlichdimensionalen Verteilungen mehrdimensionale Normalverteilungen, auch Gauß-Verteilungen genannt, sind. Es soll also für alle und alle Indizes die multivariate Verteilung von durch eine -dimensionale Normalverteilung gegeben sein.

Eine ein- oder mehrdimensionalen Normalverteilung ist durch die Angabe des Erwartungswertvektors und der Kovarianzmatrix vollständig bestimmt. Die Wahrscheinlichkeitsverteilung eines Gauß-Prozesses liegt durch die Angabe aller endlichdimensionalen Verteilungen fest. Daher ist ein Gaußprozess durch eine Erwartungswertfunktion

und eine Kovarianzfunktion

eindeutig bestimmt. Durch das Funktionenpaar liegen die Parameter aller mehrdimensionalen Normalverteilungen fest und damit liegt die Wahrscheinlichkeitsverteilung des Gauß-Prozesses fest.

Falls für alle gilt, ist durch

die Korrelationsfunktion des Gauß-Prozesses gegeben.

Anmerkungen

  • Als mehrdimensionale Normalverteilungen sind nicht nur reguläre Verteilungen mit invertierbarer Kovarianzmatrix zugelassen, sondern auch singuläre Verteilungen, bei denen die Kovarianzmatrix positiv semidefinit, aber nicht positiv definit, und damit nicht invertierbar ist.
  • Bei vielen Anwendungen, aber nicht immer, ist ein Zeitindex und eine Menge von Zeitpunkten.
  • Die Varianzfunktion ist
Aus der Kovarianzfunktion können die Varianzfunktion und die Korrelationsfunktion gewonnen werden. Aus einer gegebenen Korrelationsfunktion und einer Varianzfunktion ergibt sich die Kovarianzfunktion.
Eine Charakterisierung des Gauß-Prozesses durch die drei Funktionen , und ist für Anwendungen deswegen interessant, weil die Erwartungswertfunktion und die Varianzfunktion vollständig die eindimensionalen Verteilungen beschreibt, da
gilt, während die Korrelationsfunktion vollständig die gesamte Abhängigkeitsstruktur der Zufallsvariablen erfasst und zugleich keine Parameter aus den Verteilungen der einzelnen Zufallsvariablen enthält. Für einen Gauß-Prozess ist also die Abhängkeitsstruktur vollständig durch die Korrelationsstruktur bestimmt.

Eigenschaften

  • Eine Kovarianzfunktion ist positiv semidefinit. Eine Funktion ist genau dann eine Kovarianzfunktion, falls sie positiv semidefinit ist.
  • Für einen Gauß-Prozess folgt aus der paarweisen Unkorreliertheit aller , d. h. aus
folgt die stochastische Unabhängigkeit der Familie von Zufallsvariablen, d. h. für alle und beliebige voneinander verschiedene Indizes gilt
  • Jeder Gauß-Prozess ist ein stochastischer Prozess zweiter Ordnung, er besitzt also endliche zweite Momente, d. h. für .

Spezialfälle und Interpretation

Allgemein ist ein Gauß-Prozess eine Familie von Zufallsvariablen mit beliebiger Indexmenge , so dass jede endliche Teilfamilie normalverteilt ist. Dies ist ein sehr allgemeines Konzept und umfasst für verschiedene Arten der Indexmenge beispielsweise die Konzepte einer Zufallsvariablen, eines Zufallsvektors, einer zufälligen Folge, einer zufälligen Funktion, einer zufälligen Matrix oder eines zufälligen Feldes.

Gaußsche Zufallsvariable

Für eine einelementige Indexmenge ist der Gauß-Prozess eine normalverteilte Zufallsvariable mit und . Die Realisierungen sind Zahlen in .

Gaußscher Zufallsvektor

Für eine endliche Indexmenge ist der Gauß-Prozess ein -dimensional normalverteilter Zufallsvektor

mit dem Erwartungswertvektor und der ()-Kovarianzmatrix mit den Elementen für . Die Realisierungen des Zufallsvektors sind Vektoren .

Bei einer Interpretation von als Zeitindex und von als Menge aufeinanderfolgender Zeitpunkte sind die bedingten Verteilungen

,

die bedingten Erwartungswerte

und die bedingten Varianzen

von besonderem Interesse. Diese charakterisieren die Wahrscheinlichkeitsverteilung von , wenn beobachtete Werte bis zum Zeitpunkt vorliegen. Es ist eine Besonderheit der mehrdimensionalen Normalverteilung, dass die bedingten Verteilungen einer mehrdimensionalen Normalverteilung wieder mehrdimensionale Normalverteilungen sind, wobei die bedingten Erwartungswerte lineare Funktionen der Vergangenheitswerte sind, während die bedingten Varianzen nicht von diesen abhängen.

Gaußsche zufällige Folge

Für die Indexmenge ist der Gauß-Prozess eine Folge normalverteilter Zufallsvariablen mit der zusätzlichen Eigenschaft, dass jeder endliche Teilvektor eine mehrdimensionale Normalverteilung besitzt. Die Realisierungen sind Zahlenfolgen . Dabei bezeichnet die Menge aller reellwertigen Folgen, also der Funktionen , . In diesem Fall kann der Gauß-Prozess als zufällige Folge interpretiert werden, dessen Realisierungen gewöhnliche Zahlenfolgen sind.

Gaußsche zufällige Funktion

Für die Indexmenge ist der Gauß-Prozess eine Familie normalverteilter Zufallsvariablen mit der Eigenschaft, dass jede endliche Teilfamilie eine mehrdimensionale Normalverteilung besitzt. Die Realisierungen, die auch Pfade oder Trajektorien heißen, sind Familien von reellen Zahlen und damit gewöhnliche Funktionen für . In diesem Fall kann also der Gauß-Prozess als Modell einer zufälligen Funktion interpretiert werden, deren Realisierungen nicht-stochastische Funktionen sind. Analog ist die Interpretation, wenn die Indexmenge ein Teilintervall von ist.

Die Interpretation als Modell einer zufälligen Funktion ist eine häufige Anwendung von Gauß-Prozessen. Formal ist ein Gauß-Prozess eine Familie von Zufallsvariablen mit einer bestimmten Struktur der Erwartungswerte, der Varianzen und der Korrelation. Bei einer Interpretation als zufälliger Funktion ist jede Realisierung eines Gauß-Prozesses eine gewöhnliche Funktion (ein so genannter Pfad). Die Verteilung der Realisierungen eines Gaußprozesses kann also als Wahrscheinlichkeitsverteilung von Funktionen verstanden werden.

Die Eigenschaften des Gauß-Prozesses bestimmen die Eigenschaften seiner Realisierungen. Liegen beobachtete Werte vor, die als Realisierung eines stochastischen Prozesses interpretiert werden können, so können durch geeignete Einstellung der Verteilungsparameter eines Gauß-Prozesses die beobachteten Eigenschaften der Realisierungen reproduziert werden. Man spricht dann auch von Kalibrierung oder „Fitten“ des Prozesses. Mit Methoden der statistischen Inferenz versucht man, aus den Eigenschaften eines beobachteten Pfades oder mehrerer beobachteter Pfade auf die Verteilungsparameter (Erwartungswertfunktion, Varianzfunktion und Korrelationsfunktion) des zugrundeliegenden Gauß-Prozesses zu schließen. Dabei ist es wegen der großen Parameterzahl des schätzenden Modells im Vergleich zur Anzahl der vorliegenden Beobachtungswerte regelmäßig erforderlich, das zu schätzende Modell stark einzuschränken, beispielsweise durch die Annahme der Stationarität.

Gaußsches Zufallsfeld

Für eine Indexmenge mit nennt man den Gauß-Prozess gaußsches Zufallsfeld[1] oder gaußsches zufälliges Feld (engl. gaussian random field). Bei räumlichen Modellierungen ist in der Regel oder , zum Beispiel für Modelle der Geostatistik. Im Bereich der Technik, der Naturwissenschaften und der theoretischen Physik sind auch gaußsche Zufallsfelder mit nicht selten.

Gaußsche zufällige Matrix

Für eine Indexmenge ist der Gauß-Prozess eine gaußsche zufällige Matrix der Dimension , deren Elemente normalverteilte Zufallsvariablen sind, wobei jede Teilmatrix und jeder Teilvektor eine mehrdimensionale Normalverteilung besitzt. In diesem Fall kann der Gauß-Prozess als zufällige Matrix interpretiert werden, dessen Realisierungen gewöhnliche Matrizen von reellen Zahlen sind. Eine zufällige Matrix ist ein endlicher und diskreter Spezialfall eines Zufallsfeldes mit zweidimensionaler Indexmenge .

Kovarianzfunktion

Satz von Bochner

Eine große Klasse von Kovarianzfunktionen erhält man dadurch, wenn man die Fourier-Transformation eines symmetrischen Wahrscheinlichkeitsmaßes auf berechnet

und dann

setzt.[2]

Dies ist eine Folge des Satz von Bochner, der sagt, jede positiv-definite Funktion ist die Fourier-Transformation eines positiven endlichen Borelmaß. Auch die Umkehrung gilt. Der Satz lässt sich durch Normalisierung auf Wahrscheinlichkeitsmaße übertragen.

Gaußsche Markow-Prozesse

Gaußsche Markow-Prozesse sind Gauß-Prozesse, welche auch Markow-Prozesse sind. Folgende zwei Resultate zur Kovarianzfunktion sind bekannt:

Ein reeller Gaußscher Prozess ist genau dann ein Markow-Prozess, wenn für alle auch

gilt.[3]

Alle reellen gaußschen Markow-Prozesse besitzen eine Kovarianzfunktion der Form

wobei reelle Funktionen sind. Beispiele:[4][5]

  • Brownsche Bewegung:
  • Brownsche Brücke:
  • stationärer Ornstein-Uhlenbeck-Prozess:
  • nicht-stationärer Ornstein-Uhlenbeck-Prozess:

Bemerkung

  • Der stationäre Ornstein-Uhlenbeck-Prozess ist der einzige gaußsche Markow-Prozess, der zugleich stationär ist .[6]

Beispiele

und die Kovarianzfunktion
.
  • Ein wichtiges Beispiel eines Gauß-Prozesse ist der Wiener-Prozess (bzw. die Brownsche Bewegung). Der Wiener-Prozess hat die Erwartungswertfunktion
für alle
und die Kovarianzfunktion
für alle .
  • Ist und sind reellwertige Funktionen sowie ein Wiener-Prozess, so ist der Itō-Prozess
ein Gauß-Prozess mit der Erwartungswertfunktion
und der Kovarianzfunktion
.

Anwendungen

  • In der Zeitreihenanalyse werden zeitdiskrete Gauß-Prozesse mit typischerweise , oder zur Formulierung stochastischer Prozesse verwendet, so dass eine beobachtete Zeitreihe von Zahlenwerten als endlicher Ausschnitt der Realisierung eines zeitdiskreten Gauß-Prozesses interpretiert werden kann.
  • In der Finanzmarktstochastik werden typischerweise zeitstetige Gauß-Prozesse mit zur Modellierung von Preisprozessen verwendet.
  • In der Physik werden zeitstetige Gauß-Prozesse zur Formulierung von Modellen realer physikalische Systeme verwendet, z. B. Brownsche Bewegung.
  • In technischen Anwendungen mit im Zeitablauf anfallenden Daten werden Gauß-Prozesse zur Modellierung von Messfehlern verwendet.
  • Im Bereich des maschinellen Lernens kommt es vielfach zur Anwendung von Gauß-Prozessen.

Stationärer Gauß-Prozess

Es sei und ein Zeitindex. Ein Gauß-Prozess ist genau dann stationär im engeren Sinn, besitzt also zeitinvariante endlichdimensionale Verteilungen, wenn er stationär im weiteren Sinn ist, wenn also die Erwartungswerte und die Kovarianzen zeitinvariant sind. Deswegen kann man einen Gauß-Prozess einfach als stationär bezeichnen, da keine Missverständnisse möglich sind. Er ist genau dann stationär, wenn die Erwartungswertfunktion konstant ist und die Kovarianz zweier Zufallsvariablen eines stationären Gauß-Prozesses nur von der Zeitdifferenz und nicht von der absoluten Lage der beiden Zeitindizes abhängt. Die Kovarianzfunktion eines stationären Gauß-Prozesses kann daher als univariate Funktion

definiert werden. Die univariate Funktion und die bivariate Funktion dürfen nicht verwechselt werden.

Die Stationarität eine Gauß-Prozesses reduziert die Anzahl der Parameter erheblich. Beispielsweise hat die Verteilung eines Gauß-Prozesses mit endlicher Indexmenge als Parameter Erwartungswerte und Kovarianzen (unter Berücksichtigung der Symmetrie ). Im Fall der Stationarität reduziert sich die Parameterzahl von auf , da die Erwartungswerte identisch sind und es nur noch die Kovarianzen für gibt. Eine nicht zu große Anzahl von zu schätzenden Parametern (Parsimonie) ist die Voraussetzung für die Anwendung statistischer Inferenzmethoden im Rahmen der Zeitreihenanalyse.

Literatur

Einzelnachweise

  1. P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, Zufälliges Feld, S. 513–516.
  2. Daniel Revuz und Marc Yor: Continuous Martingales and Brownian Motion. In: Springer (Hrsg.): Grundlehren der mathematischen Wissenschaften. Band 293, 1999, S. 35 (englisch).
  3. I. S. Borisov: On a Criterion for Gaussian Random Processes to Be Markovian. In: Theory of Probability \& Its Applications. Band 27, Nr. 4, 1983, S. 863–865, doi:10.1137/1127097.
  4. Mikhail Lifshits: Lectures on Gaussian Processes. Hrsg.: Springer (= SpringerBriefs in Mathematics). Berlin, Heidelberg 2012, S. 11, doi:10.1007/978-3-642-24939-6.
  5. I. S. Borisov: On a Criterion for Gaussian Random Processes to Be Markovian. In: Theory of Probability \& Its Applications. Band 27, Nr. 4, 1983, S. 863–865, doi:10.1137/1127097.
  6. Olav Kallenberg: Foundations of Modern Probability. Hrsg.: Springer. 2021, S. 303, doi:10.1007/978-3-030-61871-1.