Ähnlichkeitsanalyse

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

In der Statistik, insbesondere der Multivariaten Statistik, interessiert man sich für die Messung der Ähnlichkeit zwischen verschiedenen Objekten und definiert dazu Ähnlichkeits- und Distanzmaße. Es handelt sich dabei nicht um Maße im mathematischen Sinn, der Begriff bezieht sich ausschließlich auf die Messung einer bestimmten Größe.

In der Regel werden Ähnlichkeitsmaße für nominal oder ordinal skalierte Variablen genutzt und Distanzmaße für metrisch skalierte Variablen (d. h. für Intervall- und Verhältnisskala).

Ähnlichkeitsmaß[Bearbeiten | Quelltext bearbeiten]

Definition[Bearbeiten | Quelltext bearbeiten]

Sei eine endliche Menge. Eine Funktion heißt Ähnlichkeitsmaß oder Ähnlichkeitsfunktion, falls für alle gilt:

  • und
  • .

Zudem wird oft noch gefordert, dass für alle gilt:

  • und .

Die Funktionswerte lassen sich zu einer symmetrischen -Matrix anordnen. Diese Matrix heißt Ähnlichkeitsmatrix. In diesem Kontext wird auch als Ähnlichkeitskoeffizient bezeichnet.

Anwendung in der Bioinformatik[Bearbeiten | Quelltext bearbeiten]

Ähnlichkeitsmatrizen wie PAM oder BLOSUM spielen eine wichtige Rolle beim Sequenzalignment. Ähnliche Proteine, Nukleotide oder Aminosäuren erhalten dabei höhere Scores (d. h. Ähnlichkeitswerte) als unähnliche. Die Ähnlichkeit ist hier durch die chemischen Eigenschaften der Bausteine und ihre Mutationsraten definiert.

Beispiel (AGCT steht für die vier Nukleinbasen Adenin, Guanin, Cytosin und Thymin):

A G C T
A 10 −1 −3 −4
G −1 7 −5 −3
C −3 −5 9 0
T −4 −3 0 8

Die Moleküle, deren Ähnlichkeit angegeben werden soll, werden in gleicher Reihenfolge spalten- und zeilenweise sortiert. Der Wert an der Position gibt somit an, wie ähnlich das Molekül an der Spaltenposition  dem an der Zeilenposition  ist.

Laut obiger Ähnlichkeitsmatrix sind Cytosin und Tymin (Ähnlichkeits-Score 0) einander ähnlicher als Guanin und Cytosin (Ähnlichkeits-Score -5).

Ähnlichkeitsmaße für binäre Vektoren[Bearbeiten | Quelltext bearbeiten]

Für binäre Variablen und zwei Beobachtungen und sei

, ,
, und
.

Dann kann man folgende Maße definieren:

Ähnlichkeitsmaß
Braun
Dice
Hamann
Jaccard (S-Koeffizient)
Kappa
Kulczynski
Ochiai
Phi
Russel Rao[1]
Simple Matching (M-Koeffizient)
Simpson
Sneath
Tanimoto (Rogers)[2]
Yule

Für nicht binäre nominale oder ordinale Variablen definiert man für jede Kategorie der Variablen eine binäre Variable und kann dann die Ähnlichkeitsmaße für binäre Variablen verwenden.

Wahl des Ähnlichkeitsmaßes[Bearbeiten | Quelltext bearbeiten]

Welches Ähnlichkeitsmaß man zur Analyse wählt, hängt von der Problemstellung ab. Es gibt jedoch einige Hinweise, wann sich welches Maß gut eignet in Abhängigkeit von den Eigenschaften der binären Variable:[3]

  • Ist die Variable symmetrisch, d. h. beide Kategorien sind gleich wichtig (z. B. Geschlecht), dann ist oft das gleiche Vorhandensein () bzw. die gleiche Abwesenheit () wichtig für ein Ähnlichkeitsmaß. Dann können Simple Matching, Hamann oder Tanimoto verwendet werden.
  • Ist die Variable asymmetrisch, d. h. nur eine Kategorie spielt eine wesentliche Rolle (z. B. Krankheit aufgetreten), dann spielt oft nur das gleiche Auftreten () eine Rolle. Dann können Dice, Jaccard, Kulczynskl, Ochiai, Braun, Simpson oder Sneath verwendet werden.
  • Kappa, Phi und Yule können sowohl im symmetrischen als auch im asymmetrischen Fall verwendet werden.

Bei der Wahl des Ähnlichkeitmaßes sollten auch Zusammenhänge zwischen den Maßen berücksichtigt werden:

  • Dice, Jaccard und Sneath sind monotone Funktionen voneinander:
  • Auch Hamann, Rogers und Simple matching weisen einen Zusammenhang auf.

Distanzmaß[Bearbeiten | Quelltext bearbeiten]

Definition[Bearbeiten | Quelltext bearbeiten]

Sei eine endliche Menge. Eine Funktion heißt Distanzmaß oder Distanzfunktion, falls für alle gilt:

  • sowie
  • und .

Die Funktionswerte lassen sich zu einer symmetrischen -Matrix anordnen. Diese Matrix heißt Distanzmatrix.

Falls die Funktion zusätzlich die Dreiecksungleichung erfüllt, ist sie eine Metrik. Häufig wird auch eine Metrik als Distanzfunktion bezeichnet.

Einige Distanzmaße[Bearbeiten | Quelltext bearbeiten]

Für metrische Variablen und zwei Beobachtungen und kann man folgende Maße definieren:

Distanzmaß
Euklidisch
Pearson
mit die Standardabweichung der Variable
City-Block
Manhattan
Gower[4]
mit die Spannweite der Variable
Mahalanobis
mit der Stichproben-Kovarianzmatrix der Variablen

Zusammenhang zwischen Ähnlichkeits- und Distanzmaßen[Bearbeiten | Quelltext bearbeiten]

Allgemein kann man ein Distanzmaß aus einem Ähnlichkeitsmaß definieren durch[5]

.

Ein so gewonnenes Distanzmaß erfüllt aber im Allgemeinen nicht die Dreiecksungleichung und ist somit keine Metrik.

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Joachim Hartung, Bärbel Elpelt: Multivariate Statistik. Lehr- und Handbuch der angewandten Statistik. Oldenbourg Verlag, München 1984, ISBN 3-486-28451-7
  • Ludwig Fahrmeir, Alfred Hamerle: Multivariate statistische Verfahren. de Gruyter, Berlin 1984, ISBN 3-11-008509-7

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. P F Russel, T R Rao: On habitat and association of species of Anophe-line larvae. In: South-eastern Madras, Journal of Malaria Institute India. 3. Jahrgang, 1940, S. 153–178.
  2. D.J. Rogers and T.T. Tanimoto: A Computer Program for Classifying Plants. In: Science. 132. Jahrgang, Nr. 3434, 21. Oktober 1960, S. 1115–1118, doi:10.1126/science.132.3434.1115 (sciencemag.org).
  3. ShengLi Tzeng, Han-Ming Wu, Chun-Houh Chen: Selection of Proximity Measures for Matrix Visualization of Binary Data. In: Biomedical Engineering and Informatics, 2009. BMEI '09. 2nd International Conference on. 30. Oktober 2009, S. 1–9, doi:10.1109/BMEI.2009.5305137.
  4. J. C. Gower: A General Coefficient of Similarity and Some of Its Properties. In: Biometrics. 27. Jahrgang, Nr. 4, Dezember 1971, S. 857–871 (jstor.org).
  5. Wolfgang Härdle, Léopold Simar: Applied Multivariate Statistical Analysis. 1. Auflage. Springer Verlag, Berlin 2003, ISBN 3-540-03079-4, S. 381.