Ausreißer

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Der Titel dieses Artikels ist mehrdeutig. Weitere Bedeutungen sind unter Ausreißer (Begriffsklärung) aufgeführt.
Ein Ausreißer-Messwert. Die blaue Regressionsgerade wurde ohne Einbeziehung des Ausreißers erstellt, die violette mit.
Der Boxplot wird über einem Zahlenstrahl dargestellt.

In der Statistik spricht man von einem Ausreißer, wenn ein Messwert oder Befund nicht in eine erwartete Messreihe passt oder allgemein nicht den Erwartungen entspricht. Die „Erwartung“ wird meistens als Streuungsbereich um den Erwartungswert herum definiert, in dem die meisten aller Messwerte zu liegen kommen, z. B. der Quantilabstand Q75 – Q25. Werte, die weiter als das 1,5-fache des Quartilabstandes außerhalb dieses Intervalls liegen, werden (meist willkürlich) als Ausreißer bezeichnet.[1] Im Boxplot werden besonders hohe Ausreißer gesondert dargestellt. Die robuste Statistik beschäftigt sich mit der Ausreißerproblematik. Auch im Data-Mining beschäftigt man sich mit der Erkennung von Ausreißern.

Überprüfung auf Messfehler[Bearbeiten]

Entscheidend ist es dann, zu überprüfen, ob es sich bei dem Ausreißer tatsächlich um ein verlässliches und echtes Ergebnis handelt, oder ob ein Messfehler vorliegt.

Beispiel: So wurde das Ozonloch über der Antarktis einige Jahre zwar bereits gemessen, die Messwerte aber als offensichtlich falsch gemessen bewertet (d.h. als „Ausreißer“ interpretiert und ignoriert) und dadurch nicht in ihrer Tragweite erkannt[2].

Ausreißertests[Bearbeiten]

Ein anderer Ansatz wurde u. a. von Ferguson im Jahr 1961 vorgeschlagen.[3] Danach wird davon ausgegangen, dass die Beobachtungen aus einer hypothetischen Verteilung stammen. Ausreißer sind dann Beobachtungen, die nicht aus der hypothetischen Verteilung stammen. Die folgenden Ausreißertests gehen alle davon aus, dass die hypothetische Verteilung eine Normalverteilung ist und prüfen, ob einer oder mehrere der Extremwerte nicht aus der Normalverteilung stammen:

Der Ausreißertest nach Walsh basiert hingegen nicht auf der Annahme einer bestimmten Verteilung der Daten. Im Rahmen der Zeitreihenanalyse können Zeitreihen, bei denen ein Ausreißer vermutet wird, darauf getestet werden und dann mit einem Ausreißermodell modelliert werden.

Unterschiede zu Extremwerten[Bearbeiten]

Ein beliebter Ansatz ist es, den Boxplot zu nutzen, um „Ausreißer“ zu identifizieren. Die Beobachtungen außerhalb der Whisker werden dabei willkürlich als Ausreißer bezeichnet. Für die Normalverteilung kann man leicht ausrechnen, dass knapp 0,7 % der Masse der Verteilung außerhalb der Whiskers liegen. Bereits ab einem Stichprobenumfang von n>143 würde man daher (im Mittel) mindestens eine Beobachtung außerhalb der Whiskers erwarten (oder auch k Beobachtungen außerhalb der Whiskers bei n>143.3362*k). Sinnvoller ist es daher zunächst, statt von Ausreißern von Extremwerten zu sprechen.

Multivariate Ausreißer[Bearbeiten]

Ausreißer rechts unten im Scatterplot und Boxplots für jede einzelne Variable.

In mehreren Dimensionen wird die Situation noch komplizierter. In der Grafik rechts kann der Ausreißer rechts unten in der Ecke nicht durch Inspektion jeder einzelnen Variablen erkannt werden; er ist in den Boxplots nicht sichtbar. Trotzdem wird er eine lineare Regression deutlich beeinflussen.

Andrews Kurven[Bearbeiten]

Andrews Kurven mit unterschiedlich eingefärbten Daten.

Andrews (1972) schlug vor jede multivariate Beobachtung (x_{i1}, x_{i2}, \dotsc, x_{ip}) durch eine Kurve zu repräsentieren[4]:

f_i(t) = \frac{x_{i1}}{\sqrt{2}}+x_{i2}\sin(t)+x_{i3}\cos(t)+x_{i4}\sin(2t)+x_{i5}\cos(2t)+\dotsb

Damit wird jede multivariate Beobachtung auf eine zweidimensionale Kurve im Intervall [-\pi;\pi] abgebildet. Aufgrund der Sinus- und Kosinusterme wiederholt sich die Funktion f_i(t) außerhalb des Intervalls [-\pi;\pi].

Für jeweils zwei Beobachtungen i und j gilt:

\underbrace{\int_{-\pi}^{\pi} \left(f_i(t)-f_j(t)\right)^2 dt}_{(1)} = \underbrace{\pi \sum_{k=1}^p (x_{ik}-x_{jk})^2}_{(2)}

Die Formel (1) links neben dem Gleichheitszeichen entspricht (zumindest approximativ) der Fläche zwischen den beiden Kurven und die Formel (2) rechts ist (zumindest approximativ) der multivariante euklidische Abstand zwischen den beiden Datenpunkten.

Ist also der Abstand zwischen zwei Datenpunkten klein, dann muss auch die Fläche zwischen den Kurven klein sein, d.h. die Kurven f_i(t) und f_j(t) müssen nahe beinander verlaufen. Ist jedoch der Abstand zwischen zwei Datenpunkten groß, muss auch die Fläche zwischen den Kurven groß sein, d.h. die Kurven f_i(t) und f_j(t) müssen sehr unterschiedlich verlaufen. Ein multivariater Ausreißer würde als Kurve sichtbar, die sich von allen anderen Kurven in ihrem Verlauf deutlich unterscheidet.

Andrews Kurven haben zwei Nachteile:

  • Wenn der Ausreißer in genau einer Variablen sichtbar ist, nimmt der Mensch die unterschiedlichen Kurven umso besser wahr, je weiter vorne diese Variable auftaucht. Am besten sollte sie die Variable x_{\bullet1} sein. D. h. es bietet sich an, die Variablen zu sortieren, z. B. x_{\bullet1} wird die Variable mit der größten Varianz, oder man nimmt die erste Hauptkomponente.
  • Wenn man viele Beobachtungen hat, müssen viele Kurven gezeichnet werden, sodass der Verlauf einer einzelnen Kurve nicht mehr sichtbar ist.

Stahel-Donoho Outlyingness[Bearbeiten]

Stahel (1981) und David Leigh Donoho (1982) haben die sog. Outlyingness definiert um eine Maßzahl zu erhalten, die angibt wie weit ein Beobachtungswert von der Masse der Daten entfernt liegt.[5][6] Durch die Berechnung aller möglichen Linearkombinationen \alpha_1 x_{i1}+\alpha_2 x_{i2}+ \dotsb + \alpha_p x_{ip} = \alpha^Tx_i, d. h. die Projektion des Datenpunktes auf den Vektor \alpha, mit \sum_{k=1}^p \alpha_i^2=1 ergibt sich die Outlyingness

\operatorname{out}(x_i) = \sup_{\alpha} \left(\operatorname{out}(x_i, \alpha)\right) = \sup_{\alpha} \left(\frac{\alpha^Tx_i-\operatorname{median}(\alpha^Tx)}{\operatorname{mad}(\alpha^Tx)}\right)

mit \operatorname{median}(\alpha^Tx) der Median der projizierten Punkte, als robustes Lagemaß, und \operatorname{mad}(\alpha^Tx) die mittlere absolute Abweichung der projizierten Punkte, als robustes Streuungsmaß. \operatorname{out}(x_i, \alpha) ist dabei eine Standardisierung.

In der Praxis wird die Outlyingness berechnet, indem für mehrere hundert oder tausend zufällig ausgewählte Projektionsrichtungen \alpha das Maximum \operatorname{out}(x_i, \alpha) genommen wird.

Ausreißererkennung im Data-Mining[Bearbeiten]

Unter dem englischen Begriff Outlier Detection (deutsch: Ausreißererkennung) versteht man den Teilbereich des Data-Mining, bei dem es darum geht, untypische und auffällige Datensätze zu identifizieren. Anwendung hierfür ist beispielsweise die Erkennung von (potentiell) betrügerischen Kreditkartentransaktionen in der großen Menge der validen Transaktionen. Die ersten Algorithmen zur Outlier Detection waren eng an den hier erwähnten statistischen Modellen orientiert, jedoch haben sich aufgrund von Berechnungs- und vor allem Laufzeitüberlegungen die Algorithmen seither davon entfernt.[7] Ein wichtiges Verfahren hierzu ist der dichtebasierte Local Outlier Factor.

Siehe auch[Bearbeiten]

Literatur[Bearbeiten]

  • : Andrews Plots for Multivariate Data: Some New Suggestions and Applications. Journal of Statistical Planning and Inference. 100, Nr. 2, 2002, S. 411–425. doi:10.1016/S0378-3758(01)00150-1.

Weblinks[Bearbeiten]

 Wiktionary: Ausreißer – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen

Einzelnachweise[Bearbeiten]

  1.  Volker Müller-Benedict: Grundkurs Statistik in den Sozialwissenschaften. 4., überarbeitete Auflage. VS Verlag für Sozialwissenschaften, Wiesbaden 2007, ISBN 978-3-531-15569-2, S. 99.
  2. Karl-Heinz Ludwig (2007), Eine kurze Geschichte des Klimas: Von der Entstehung der Erde bis heute (2. Auflage), Beck Verlag, S. 149
  3. Ferguson, T. S.: On the Rejection of outliers. 1, 1961, S. 253-287.
  4. Andrews, D. (1972). Plots of high-dimensional data, Biometrics 28: 125-136.
  5. Stahel., W. A. (1981). Robuste Schätzungen: infinitesimale Optimalität und Schätzungen von Kovarianzmatrizen. PhD thesis, ETH Zürich.
  6. Donoho., D. L. (1982). Breakdown properties of multivariate location estimators. Qualifying paper, Harvard University, Boston.
  7.  Kriegel H.-P., Kröger P., Zimek A.: Outlier Detection Techniques. Tutorial. In: 13th Pacific-Asia Conference on Knowledge Discovery and Data Mining (PAKDD 2009). Bangkok, Thailand 2009 (http://www.dbs.ifi.lmu.de/Publikationen/Papers/tutorial_slides.pdf, abgerufen am 26. März 2010).