Autokorrelation

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Autokovarianz)
Wechseln zu: Navigation, Suche

Die Autokorrelation ist ein Begriff aus der Statistik und der Signalverarbeitung und beschreibt die Korrelation einer Funktion oder eines Signals mit sich selbst zu einem früheren Zeitpunkt. Korrelationsfunktionen werden für Folgen von Zufallsvariablen x(t) berechnet, die von der Zeit t abhängen. Diese Funktionen geben an, wie viel Ähnlichkeit die um die Zeit \tau verschobene Folge x(t-\tau) mit der ursprünglichen Folge x(t) gemeinsam hat. Da die unverschobene Folge mit sich selbst am ähnlichsten ist, hat die Autokorrelation für die unverschobene Folge (\tau=0) den höchsten Wert. Wenn zwischen den Gliedern der Folge eine Beziehung besteht, die mehr als zufällig ist, hat auch die Korrelation der ursprünglichen Folge mit der verschobenen Folge in der Regel einen Wert, der signifikant von Null abweicht. Man sagt dann, die Glieder der Folge sind autokorreliert.

Autokorrelationsfunktion der Zeitreihe der Tiefenmessungen des Huronsees

Allgemeines[Bearbeiten]

Da die Folge x(t) mit einer verschobenen Version ihrer selbst verglichen wird, spricht man von einer Autokorrelation. Werden hingegen zwei verschiedene Folgen x(t) und y(t-\tau) verglichen, spricht man von einer Kreuzkorrelation. Mit der Autokorrelation ist es möglich, Zusammenhänge zwischen den beobachteten Ergebnissen zu verschiedenen Beobachtungszeitpunkten einer Messreihe festzustellen. Die Kreuzkorrelation gibt dagegen die Korrelation zwischen verschiedenen Merkmalen an.

In der Signalverarbeitung geht man häufig auch von kontinuierlichen Messdaten aus. Man spricht von Autokorrelation, wenn die kontinuierliche oder zeitdiskrete Funktion (z. B. ein- oder mehrdimensionale Funktion über die Zeit oder den Ort) mit sich selbst korreliert wird, beispielsweise x(t) mit x(t+\tau). Mit dem Durbin-Watson-Test kann anhand einer Stichprobe überprüft werden, ob eine Zeitreihe oder räumliche Daten eine Korrelation aufweisen.

Die Autokorrelation wird in den verschiedenen Disziplinen unterschiedlich definiert. In der Statistik wird sie für stochastische Prozesse X_t als normierte Form der Autokovarianz berechnet, in der Signalverarbeitung als Faltung des zeitabhängigen Signals x(t) mit sich selbst. In manchen Gebieten werden die Begriffe Autokorrelation und Autokovarianz auch synonym verwendet.

In einem Korrelogramm kann die Autokorrelation grafisch dargestellt werden.

Autokovarianz und Autokorrelation in der Statistik[Bearbeiten]

Die Autokovarianzfunktion beschreibt die Kovarianz zwischen den Werten eines stochastischen Prozesses zu verschiedenen Zeiten. Für einen reellwertigen stochastischen Prozess (X_t)_{t \in T} ist sie definiert als:[1]

\gamma(t_1,t_2)=E[({X_t}_1-{\mu_t}_1)({X_t}_2-{\mu_t}_2)]; \qquad  \gamma(t_1,t_2)\in\mathbb{R}

Hierbei bezeichnet E[...] den Erwartungswert und {\mu_t} Erwartungswert von X zum Zeitpunkt t. Die Existenz dieser Erwartungswerte wird vorausgesetzt. Für eine Zeitdifferenz \tau=0 ist die Autokovarianz identisch mit der Varianz.

Für einen stationären Prozess sind die statistischen Größen Erwartungswert, Standardabweichung und Varianz der Zufallsvariable X nicht mehr zeitabhängig. Die Autokovarianz ist dann nicht von der Lage der Zeitpunkte, sondern nur von der Zeitdifferenz \tau zwischen t_1 und t_2 abhängig:


\gamma_\tau = E\left[\left({X}_t-\mu\right) \left({X_{t+\tau}}-\mu\right)\right].


Die Autokorrelationsfunktion des stochastischen Prozesses wird definiert als normierte Autokovarianzfunktion:

\rho\left(t_1,t_2\right)=\frac{\gamma\left(t_1,t_2\right)}{\sigma_{t1}\sigma_{t2}} \qquad \mbox{ mit} -1\le\rho(t_1,t_2)\le+1
Hierbei bedeuten:
\sigma_{t1} Standardabweichung zum Zeitpunkt t_1
\sigma_{t2} Standardabweichung zum Zeitpunkt t_2
\rho(t_1,t_2) Autokorrelation bezogen auf die Zeitpunkte t_1 und t_2

In dieser Form ist die Autokorrelationsfunktion einheitslos und auf den Bereich zwischen -1 und 1 normiert.

Für einen stationären Prozess ist die Autokovarianz nur vom Zeitunterschied \tau zwischen t_1 und t_2 abhängig. Die Standardabweichung ist dann unabhängig vom Zeitpunkt, das Produkt der Standardabweichungen im Nenner entspricht dann der Varianz \sigma_X^2 der Zufallsvariable X. Somit vereinfacht sich die Autokorrelationsfunktion für einen stationären Prozess zu:

\rho\left(t_1,t_2\right)=\rho_\tau=\frac{\gamma_\tau}{\sigma_X^2}=\frac{\gamma_\tau}{\gamma_0},

da \gamma_0 = \sigma_X^2 gilt.

Autokorrelation in der Signalverarbeitung[Bearbeiten]

Zusammenhang zwischen Faltung, Kreuzkorrelation und Autokorrelation
Autokorrelation des Barker-Codes mit Länge 7.

Hier wird die Autokorrelationsfunktion (AKF) zur Beschreibung der Korrelation eines Signales mit sich selbst bei unterschiedlichen Zeitverschiebungen \tau zwischen den betrachteten Funktionswerten eingesetzt. Die AKF des Signals lässt sich sowohl symmetrisch um den Nullpunkt herum definieren:

\Psi_{xx}(\tau) = \lim\limits_{T \rightarrow \infty}{ \frac{1}{2T}\int_{-T}^{T}x(t)x(t+\tau) dt},

als auch asymmetrisch:

\Psi_{xx}(\tau) = \lim\limits_{T \rightarrow \infty}{ \frac{1}{T}\int_{0}^{T}x(t)x(t+\tau) dt},

Das Ergebnis ist jedoch in beiden Fällen gleich.

In Kurzschreibweise wird für die Autokorrelation das Operatorsymbol \star verwendet:

(x \star x)(\tau) = \int_{-\infty}^{\infty} x^*(t)\ x(t + \tau)\,dt = x^*(-\tau) * x(\tau)

mit x^* als die konjugiert komplexe Funktion von x und dem Faltungsoperator *.

Die AKF entspricht der Autokovarianzfunktion für mittelwertfreie, stationäre Signale. In der Praxis wird die Autokorrelationsfunktion solcher Signale in der Regel über die Autokovarianzfunktion berechnet.

Für zeitdiskrete Signale wird statt des Integrals die Summe verwendet. Mit einer diskreten Verschiebung j ergibt sich:

\Psi_{xx}(j) = \sum_n x_n\,x_{n-j}.

In der digitalen Signalanalyse wird die Autokorrelationsfunktion in der Regel über die inverse Fouriertransformation des Autoleistungsspektrums (z. B. S_{XX}(f)) berechnet:


\Psi_{xx}\left(\tau\right) = \int_{-\infty}^\infty S_{XX}(f) \cdot e^{\mathrm{i} 2 \pi f \tau} \,df

Die theoretische Grundlage dieser Berechnung ist das Wiener-Chintschin-Theorem.

Impuls-AKF[Bearbeiten]

Für Signale mit endlichem Energieinhalt – sogenannte Energiesignale – erweist es sich als sinnvoll, folgende Definition zu verwenden:

\Psi_{xx}^{E}(\tau) = \int_{-\infty}^{\infty}x(t)x(t+\tau)dt.

Eigenschaften[Bearbeiten]

Geradheit[Bearbeiten]

Die AKF ist eine gerade Funktion:

\Psi_{xx}(\tau) = \Psi_{xx}(-\tau).

AKF und Periodizitäten[Bearbeiten]

Die einer periodischen AKF (\Psi_{xx}(\tau) = \Psi_{xx}(\tau+nT)) zugrundeliegende Funktion x(t) ist selbst periodisch, wie folgender Beweis zeigt:

\Psi_{xx}(nT) = {\int_{-\infty}^{\infty}x(t)x(t+nT)dt}
\Psi_{xx}(0) = {\int_{-\infty}^{\infty}x(t)x(t)dt}
\Rightarrow x(t) = x(t + nT)
.

Umgekehrt gilt auch für periodische Funktionen x(t) = x(t + nT), dass ihre AKF \Psi_{xx}(\tau) periodisch ist:

\Psi_{xx}(\tau) = {\int_{-\infty}^{\infty}x(t)x(t+\tau)dt} 
= {\int_{-\infty}^{\infty}x(t)x(t+nT + \tau)dt}
\Rightarrow \Psi_{xx}(\tau) =  \Psi_{xx}(\tau + nT).

Somit lässt sich schließen, dass eine Funktion und ihre AKF stets dieselbe Periodizität aufweisen:

x(t) = x(t+nT) \Leftrightarrow \Psi_{xx}(\tau) = \Psi_{xx}(\tau + nT).

Gibt es Wiederholungen im Signal, so ergeben sich Maxima der Autokorrelationsfunktion bei den Zeitverschiebungen, die der Wiederholungsdauer von Erscheinungen im Signal entsprechen. So können z. B. versteckte periodische Anteile und Echoerscheinungen in Signalen detektiert werden.

Maximum[Bearbeiten]

Die AKF hat unabhängig ihrer Definition bei \tau = 0 ihr Maximum:

|\Psi_{xx}(\tau)|\leq \Psi_{xx}(0)

Für die AKF wird dieser Wert als Effektivwertquadrat, für die Impuls-AKF also Signalenergie bezeichnet.

Häufig wird die Autokorrelationsfunktion auch auf den Maximalwert bei \tau=0 normiert angegeben:


\rho_{xx}\left(\tau\right)=\frac{\Psi_{xx}(\tau)}{\Psi_{xx}(0)}

Der Betrag dieser normierten Autokorrelationsfunktion kann Werte zwischen 0 und 1 annehmen. Man spricht dabei auch vom Autokorrelationskoeffizienten.[2]

Abfallverhalten[Bearbeiten]

Für große Zeiten \tau \rightarrow \infty gilt:

\lim \limits_{\tau \to \infty} \Psi_{xx}(\tau) = 0.

Beispiele[Bearbeiten]

Das untere Signal besitzt identischen zeitlichen Verlauf, ist aber um Δs verspätet
Weißlichtinterferometrie

Beispiel 1[Bearbeiten]

Die Funktionen im nebenstehenden Bild sind aus sinusförmigen Abschnitten einheitlicher Frequenz zusammengesetzt. An den Stoßstellen treten Phasensprünge auf. Zur Berechnung der Korrelation multipliziert man punktweise beide Signalwerte und addiert die Produkte über einen längeren Zeitraum. Bei der gezeichneten Verzögerung Δs sind in den rot markierten Bereichen alle Einzelprodukte positiv oder null, in den dazwischen liegenden Bereichen meist negativ. Nur für Δs = 0 sind alle Einzelprodukte positiv, die Korrelationsfunktion erreicht ihren maximalen Wert.

Nebenbemerkung: Addiert man beide Signale, können stückweise konstruktive bzw. destruktive Interferenz auftreten.

Beispiel 2[Bearbeiten]

Bei der Optischen Kohärenztomografie wird Licht besonders geringer Kohärenzlänge verwendet, weil die Autokorrelation nur dann ein merklich von Null abweichendes Ergebnis liefert, wenn die Länge von Messarm und Referenzarm gut übereinstimmen. Bei größerer Abweichung variieren die Ergebnisse der Autokorrelation um Null (Weißlichtinterferometrie).

Anwendungen[Bearbeiten]

Genutzt wird die Autokorrelation u. a. in der Regressionsanalyse, der Zeitreihenanalyse und in der Bildverarbeitung. Beispielsweise werden in der Regressionsanalyse die Störgrößen, also die Abweichungen der Beobachtungswerte von der wahren Regressionsgeraden, als Folge von identisch verteilten Zufallsvariablen interpretiert. Damit die Regressionsanalyse sinnvolle Ergebnisse liefert, müssen die Störgrößen unkorreliert sein.

Finden von Signalperioden[Bearbeiten]

Eine häufige Anwendung der Autokorrelationsfunktion besteht darin, in stark verrauschten Signalen Periodizitäten zu finden, die nicht ohne weiteres ersichtlich sind:

  • Die Autokorrelationsfunktion eines periodischen Signals ist wieder ein periodisches Signal mit derselben Periode. So ist zum Beispiel die Autokorrelationsfunktion eines Kosinussignals
 x(t)=\hat x \cos(\omega t + \varphi)
wiederum eine Kosinusfunktion mit derselben Kreisfrequenz \omega (Erhaltung der Signalperiode).
 R_{xx}(\tau)=\frac{\hat x^2}{2} \cos(\omega \tau) ,
Allerdings ist hierbei die Phaseninformation verloren gegangen.
Eine gleichwertige Möglichkeit des Findens der Signalperiode ist die Möglichkeit, das Fourier-Spektrum des Signals nach einer dominanten Frequenz zu untersuchen. Da die Autokorrelation die normierte Fourier-Transformierte des Leistungsdichtespektrum ist (gemäß dem Wiener-Khinchine-Theorem), sind beide Ansätze gleichwertig.
  • Da weißes Rauschen zu einem Zeitpunkt völlig unabhängig von weißem Rauschen zu einem anderen Zeitpunkt ist, ergibt die Autokorrelationsfunktion von weißem Rauschen einen Dirac-Impuls an der Stelle \tau =0 . Liegt weißes Rauschen der Leistungsdichte  S_0 für die Frequenzen \omega = -\infty ... +\infty vor, so gilt:
     R_{xx}(\tau) = S_0 \delta(\tau)\,
    Bei gefärbtem Rauschen, das in technischen Systemen meistens an Stelle von weißem Rauschen vorkommt, ergibt sich ebenso ein absolutes Maximum der Autokorrelationsfunktion bei  \tau=0 und ein Abfall der Autokorrelationsfunktion für Verschiebungen  |\tau|>0 . Die Breite dieses Maximums wird von der "Farbe" des Rauschens bestimmt.

Bei der Analyse von Periodizitäten wird nur die Autokorrelationsfunktion für große Werte von \tau betrachtet und der Bereich um  \tau=0 ignoriert, da er vor allem Information über die Stärke des Rauschsignals enthält.

Signal-Rausch-Verhältnis[Bearbeiten]

Da der Wert der Autokorrelationsfunktion bei  \tau =0 dem quadratischen Mittelwert (bei Leistungssignalen) bzw. der Signalenergie (bei Energiesignalen) entspricht, kann man durch Bilden der Autokorrelationsfunktion relativ einfach das Signal-Rausch-Verhältnis abschätzen.

Dazu teilt man die Höhe des Wertes  \lim \limits_{\tau \to 0} R_{xx}(\tau) , d. h. den Wert, den die Autokorrelationsfunktion ohne Rauschen an der Stelle 0 hätte, durch die Höhe der "Rauschspitze". Beim Umrechnen des Signal-Rausch-Verhältnisses Sx / Nx in Dezibel muss man darauf achten, dass man  10 \cdot \log\left(\frac{S_x}{N_x}\right) und nicht  20 \cdot \log\left(\frac{S_x}{N_x}\right) verwendet. Das liegt daran, dass die Autokorrelationsfunktion an der Stelle 0 eine Leistungs- bzw. Energiegröße (quadratische Größe) und keine Feldgröße darstellt.

Siehe auch[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1. Volker Schmidt (2001) Stochastik für Informatiker, Physiker, Chemiker und Wirtschaftswissenschaftler. Vorlesungsskript der Universität Ulm. online verfügbar
  2. Patrick F. Dunn, Measurement and Data Analysis for Engineering and Science, New York: McGraw–Hill, 2005 ISBN 0-07-282538-3

Weblinks[Bearbeiten]