Kontingenzkoeffizient

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Der Kontingenzkoeffizient C (nach Karl Pearson) ist ein statistisches Zusammenhangsmaß. Der Pearsonsche Kontingenzkoeffizient drückt die Stärke des Zusammenhangs zwischen zwei (oder mehreren) nominalen oder ordinalen Variablen aus. Er basiert auf dem Vergleich von tatsächlich ermittelten Häufigkeiten zweier Merkmale mit den Häufigkeiten, die man bei Unabhängigkeit dieser Merkmale erwartet hätte.

Quadratische Kontingenz[Bearbeiten]

Die quadratische Kontingenz [1] oder der Chi-Quadrat-Koeffizient \chi ^2, auf dem auch der Kontingenzkoeffizient beruht, ist ein Maß für den Zusammenhang der betrachteten Merkmale:

\chi^2=\sum_{i=1}^I  \sum_{j=1}^J   \frac{(n_{ij} -\frac{n_i. n._j}{n})^2}{\frac{n_i. n._j}{n}}

Die Aussagekraft des \chi ^2-Koeffizienten ist gering, da seine Obergrenze, d. h. der Wert, den er bei vollkommener Abhängigkeit der betrachteten Merkmale annimmt, abhängig von der Größe (Dimension) der Kontingenztafel (d. h. von der Anzahl der Ausprägungen der Variablen) und der Größe der untersuchten Gesamtheit n ist. Eine Vergleichbarkeit von Werten des \chi^2-Koeffizienten über verschiedene Kontingenztabellen und Stichprobengrößen ist daher nicht gegeben.[1][2] Bei völliger Unabhängigkeit der Merkmale ist \chi^2=0.

Es gilt:[3]

0 \leq \chi^2 \leq n \cdot \min\{k-1,m-1\},

wobei k\, die Anzahl der Zeilen und m\, die Anzahl der Spalten der Kontingenztabelle bezeichnet.

Verwendung[Bearbeiten]

Die \chi^2-Größe wird benötigt, um den Kontingenzkoeffizienten C zu ermitteln. Auch bei statistischen Tests findet die \chi^2-Größe Verwendung (siehe Chi-Quadrat-Test).

Beispiel[Bearbeiten]

Es sei folgende Kontingenztafel aus einer Befragung entstanden:

Limousine Kombi Summe
Arbeiter 19 18 37
Angestellte 43 20 63
Summe 62 38 100

Berechnung des \chi^2-Koeffizienten:

\frac{(19 -\frac{37 * 62}{100})^2}{\frac{37 * 62}{100}}  +  \frac{(18 -\frac{37 * 38}{100})^2}{\frac{37 * 38}{100}}  +  \frac{(43 -\frac{63 * 62}{100})^2}{\frac{63 * 62}{100}}  +  \frac{(20 -\frac{63 * 38}{100})^2}{\frac{63 * 38}{100}}  = 2{,}83

Mittlere quadratische Kontingenz[Bearbeiten]

Ein weiteres Maß, um die Stärke der Abhängigkeit der Merkmale in einer Kontingenztafel anzugeben, ist die mittlere quadratische Kontingenz, die im Wesentlichen eine Erweiterung des \chi ^2-Koeffizienten darstellt:

\frac{\chi^2}{n}=\frac{1}{n} \sum_{i=1}^I  \sum_{j=1}^J   \frac{(n_{ij} -\frac{n_i. n._j}{n})^2}{\frac{n_i. n._j}{n}}

Je größer dieses Maß ist, desto stärker ist der Zusammenhang zwischen den zwei analysierten Merkmalen. Sind die beiden Merkmale unabhängig, so wird jeder Summand durch den Zähler des Bruches zu 0, das Maß selbst damit auch. Im Falle einer (2x2)-Kontingenztafel ist das Maß normiert und nimmt Werte im Intervall [0,1] an.

Kontingenzkoeffizient nach Karl Pearson[Bearbeiten]

\chi ^2 kann grundsätzlich sehr große Werte annehmen und ist nicht auf das Intervall [0,1] beschränkt. Um die Abhängigkeit des Koeffizienten vom Stichprobenumfang auszuschalten, wird auf Basis des \chi ^2 der Kontingenzkoeffizient C (auch CC oder K) nach Karl Pearson ermittelt:

C=\sqrt{\frac{\chi ^2}{\chi^2 + n}}.
mit n der Stichprobenumfang.

Dieser kann Werte im Intervall [0,1) annehmen. Problematisch ist, dass die obere Grenze des Kontingenzkoeffizienten C abhängig von der Anzahl der betrachteten Dimensionen ist:[4]

Es gilt C\in \left[0,\sqrt{\frac{k-1}{k}} \right], mit k=\min(|I|,|J|) das Minimum aus der Anzahl der möglichen Merkmalausprägungen der untersuchten Variablen.

Korrigierter Kontingenzkoeffizient[Bearbeiten]

Um zusätzlich zum Einfluss des Stichprobenumfangs auch den Einfluss der Dimension der betrachteten Kontingenztafel (der Anzahl der Merkmalsausprägungen) auf die Obergrenze des Koeffizienten auszuschalten und damit die Vergleichbarkeit von Ergebnissen zu gewährleisten, wird der korrigierte Kontingenzkoeffizient C_{korr} (häufig auch K^*) zur Messung des Zusammenhangs genutzt:

C_{korr}=\sqrt{\frac{k}{k-1}} \cdot C = \sqrt{\frac{k}{k-1}} \cdot \sqrt{\frac{\chi ^2}{n+\chi ^2}},

mit k wie oben.

Es gilt 0 \leq C_{korr} \leq 1: Ein C_{korr}\, nahe 0 deutet dabei auf unabhängige Merkmale hin, ein C_{korr}\, nahe 1 auf ein hohes Maß an Abhängigkeit zwischen den Merkmalen.

Für das Beispiel ergibt sich ein korrigierter Kontingenzkoeffizient C_{korr}  =   \sqrt{\frac{2}{2-1}}*0{,}166    = 0{,}234 .

Cramérs V[Bearbeiten]

Cramérs V (englisch auch: 'Cramér's V') ist ein Kontingenzkoeffizient, genauer ein χ2-basiertes Zusammenhangsmaß. Es ist benannt nach dem schwedischen Mathematiker und Statistiker Harald Cramér.

Cramérs V ist eine χ2-basierte Maßzahl. Cramérs V ist eine symmetrische Maßzahl für die Stärke des Zusammenhangs zwischen zwei oder mehr nominalskalierten Variablen, wenn (mindestens) eine der beiden Variablen mehr als zwei Ausprägungen hat. Bei einer 2x2-Tabelle entspricht Cramérs V dem absoluten Betrag des Phi-Koeffizienten.

Vorgehen[Bearbeiten]

V = \sqrt{\frac{\chi^2}{n (\min[r, c]-1)}}.
n: Gesamtzahl der Fälle (Stichprobenumfang)
min[r,c] ist der kleinere der beiden Werte "Zahl der Zeilen (rows)" und "Zahl der Spalten (columns)"

Interpretation[Bearbeiten]

Cramérs V liegt bei jeder Kreuztabelle – unabhängig von der Anzahl der Zeilen und Spalten – zwischen 0 und 1. Er kann bei beliebig großen Kreuztabellen angewandt werden. Da Cramérs V immer positiv ist, kann keine Aussage über die Richtung des Zusammenhangs getroffen werden.

Phi-Koeffizient \boldsymbol{\phi} \;[Bearbeiten]

Der Phi-Koeffizient (auch Vierfelder-Korrelationskoeffizient, Vierfelderkoeffizient) \phi \, (auch  \widehat{r_\phi}) ist ein Maß für die Stärke des Zusammenhangs zweier dichotomer Merkmale.

Berechnung[Bearbeiten]

Um die Vierfelderkorrelation zwischen zwei dichotomen Merkmalen A und B zu schätzen, stellt man zuerst eine Kontingenztafel auf, die die gemeinsame Häufigkeitsverteilung der Merkmale enthält.

  A=0 A=1 Summe
B=0 a b a+b
B=1 c d c+d
Summe a+c b+d a+b+c+d

Mit den Daten aus der Tabelle kann man \phi \; nach der Formel  \phi= \frac{a \cdot d- b \cdot c}{\sqrt{(a+b)\cdot(c+d)\cdot(a+c)\cdot(b+d)}}  berechnen.[5]

Beispiele[Bearbeiten]

Messen der Assoziation zwischen

  • Zustimmung zu oder Ablehnung einer Politikentscheidung und dem Geschlecht,
  • Vorführung bzw. Nichtvorführung eines Werbespots und Kauf oder Nichtkauf eines Produkts.
  • Anwendung von \phi \, auf eine Konfusionsmatrix mit zwei Klassen.

Hinweis[Bearbeiten]

Zwischen \phi \, und \chi^2\, besteht der Zusammenhang \chi^2=n \cdot \phi^2  bzw.  \phi^2=\frac{\chi^2}{n}, wobei n\, die Anzahl der Beobachtungen bezeichnet. Damit ist \phi\, die Quadratwurzel (das Vorzeichen spielt keine Rolle) aus der mittleren quadratischen Kontingenz (siehe oben).

Als Teststatistik verwendet ist  n \cdot \phi^2 unter der Annahme, dass \phi \, gleich null ist, Chi²-verteilt mit einem Freiheitsgrad.

Phi als Maß für die Effektstärke[Bearbeiten]

Wenn ein Maß zur Bestimmung der Effektstärke mit Orientierung auf Wahrscheinlichkeiten gesucht wird, kann dafür  \phi verwendet werden. Da bei Kreuztabellen, die nicht absolute Häufigkeiten, sondern Wahrscheinlichkeiten enthalten, an der Stelle, an der normalerweise die Fallzahl zu finden ist, immer 1 steht, wird  \phi identisch mit Cohens  w:

\phi=\sqrt{\frac{\chi^2}{n}}=\sqrt{\frac{\chi^2}{1}}=\sqrt{\chi^2}=w

Dabei wird  \chi^2 eben nicht in Bezug auf absolute Häufigkeiten, sondern in Bezug auf Wahrscheinlichkeiten berechnet. Zu Cohens w siehe [6] und [7].Ebenfalls numerisch identisch ist es, wenn in Bezug auf Kreuztabellen, die Wahrscheinlichkeiten enthalten, V \cdot \sqrt{(\min[r, c]-1)} berechnet wird, wobei r die Anzahl der Zeilen, c die Anzahl der Spalten und \min[r, c] die kleinere der beiden Zahlen ist.[8]

Literatur[Bearbeiten]

  • Bortz, J., Lienert, G.A. & Boehnke, K. (1990). Verteilungsfreie Methoden in der Biostatistik. Springer, Berlin (Kap. 8.1, S. 326 und S. 355ff).
  • Diehl, J. M. / Kohr, H.U. (1999). Deskriptive Statistik. 12. Auflage. Klotz Eschborn, S.161.
  • Zöfel, P. (2003). Statistik für Psychologen. Pearson Studium, München.
  • Signifikanzprüfung für die Vierfelderkorrelation (PDF-Datei; 13 kB)

Weblinks[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1. a b  Backhaus: Multivariate Analysemethoden. 11. Auflage. Springer, 2006, S. 241, 700.
  2.  W. Kohn: Statistik. Datenanalysis und Wahrscheinlichkeitsrechnung. Springer, 2005, S. 115.
  3.  W. Kohn: Statistik. Datenanalysis und Wahrscheinlichkeitsrechnung. Springer, 2005, S. 114.
  4.  H. Toutenburg, C. Heumann: Deskriptive Statistik: Eine Einführung in Methoden und Anwendungen mit R und SPSS. 6. Auflage. Springer, 2008, S. 115.
  5.  Bernd Rönz, Hans Gerhard Strohe (Hrsg.): Lexikon Statistik. Gabler, Wiesbaden 1994, S. 25.
  6. J. Bortz: Statistik für Human- und Sozialwissenschaftler. 6. Auflage. Springer 2005, S. 167–168
  7. D. Wentura: Ein kleiner Leitfaden zur Teststärke-Analyse. Fachrichtung Psychologie der Universität des Saarlandes 2004, S.6, http://www.uni-saarland.de/fak5/excops/download/POWER.pdf
  8. Cohen, J. (1988): Statistical Power Analysis for the Behavioral Sciences, 2. Aufl., Hillsdale: Lawrence Erlbaum Associates. ISBN 978-0805802832