Effektstärke

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Effektstärke (auch Effektgröße) bezeichnet die Größe eines statistischen Effekts. Sie kann zur Verdeutlichung der praktischen Relevanz von statistisch signifikanten Ergebnissen herangezogen werden. Zur Messung der Effektstärke werden unterschiedliche Effektmaße verwendet.

Definition[Bearbeiten | Quelltext bearbeiten]

Es sind unterschiedliche Maße der Effektstärke in Gebrauch. Nach Cohen[1] sollte für eine Maßzahl der Effektstärke gelten:

  1. sie ist eine dimensionslose Zahl,
  2. sie hängt nicht von der Maßeinheit der Ursprungsdaten ab,
  3. sie ist, im Gegensatz zu Teststatistiken, unabhängig von der Stichprobengröße und
  4. ihr Wert sollte nahe bei Null liegen, wenn die Nullhypothese des zugehörigen Tests nicht abgelehnt wurde.

Beispiel[Bearbeiten | Quelltext bearbeiten]

Verglichen wird die Intelligenzleistung von Kindern, die nach einer neuen Methode unterrichtet wurden, mit Kindern, die nach der herkömmlichen Methode unterrichtet wurden. Wenn eine sehr große Anzahl von Kindern pro Stichprobe erfasst wurde, können schon Unterschiede von beispielsweise 0,1 IQ-Punkten zwischen den Gruppen signifikant werden. Ganz offensichtlich bedeuten 0,1 IQ-Punkte Unterschied aber trotz eines signifikanten Testergebnisses kaum eine Verbesserung.

Wenn nur das signifikante Ergebnis bewertet würde, könnte die Schlussfolgerung sein, dass die neue Methode eine bessere Intelligenzleistung bewirkt, und die alte Lehrmethode würde unter hohem Kostenaufwand abgeschafft werden. Werden hingegen andere Effekte miteinbezogen, würde sicherlich weiterhin nach der ursprünglichen Methode unterrichtet werden.

Verwendung in der Forschung[Bearbeiten | Quelltext bearbeiten]

Effektstärke bezeichnet bei Experimenten (insbesondere in der Medizin, den Sozialwissenschaften und der Psychologie) das Ausmaß der Wirkung eines experimentellen Faktors. Bei Regressionsmodellen dient sie als Indikator für den Einfluss einer Variablen auf die erklärte Variable. Effektgrößen werden bei Metaanalysen berechnet, um die Ergebnisse von verschiedenen Studien in einem einheitlichen Maß – der Effektgröße – miteinander vergleichen zu können.

Die Effektgröße kann einerseits nach einer Untersuchung berechnet werden, um Unterschiede zwischen Gruppen in einem standardisierten Maß vergleichen zu können. Allerdings kann es auch sinnvoll sein, eine Effektgröße auch als Mindesteffektgröße vor der Durchführung einer Untersuchung oder vor der Durchführung eines Tests aufzustellen. Wird ein statistischer Test durchgeführt, so kann praktisch immer die Nullhypothese zurückgewiesen werden, wenn nur eine genügend große Anzahl von Messergebnissen einbezogen sind. Der Test wird bei genügend großem Stichprobenumfang also praktisch immer signifikant.

Effektstärke und statistische Signifikanz[Bearbeiten | Quelltext bearbeiten]

In der praktischen Anwendung statistischer Tests wird ein kleiner p-Wert häufig mit einer vergleichsweise hohen Effektstärke assoziiert. Zwar ist es tatsächlich der Fall, dass unter Beibehaltung der anderen Parameter einer Testsituation (Stichprobengröße, gewähltes Signifikanzniveau, erforderliche Teststärke) ein kleinerer p-Wert mit einer größeren Effektstärke assoziiert ist. Dies ist aber einfach ein spezifisches Merkmal des statistischen Tests (bzw. der zugrundeliegenden Verteilungen) und lässt eine Interpretation der Irrtumswahrscheinlichkeit p als Effektstärke nicht zu. Es ist aber – z. B. bei der Durchführung einer Meta-Analyse – möglich, aus einer berichteten Irrtumswahrscheinlichkeit eine zugeordnete Effektstärke zu bestimmen, wenn die Stichprobengröße bekannt ist. Da ein statistischer Test im Wesentlichen daraus besteht, eine spezielle (sinnvollerweise nicht-zentrale) Stichprobenverteilung für die verwendete Teststatistik (z. B. t – im Falle eines t-Tests – oder F für eine ANOVA) darauf zu überprüfen, ob der empirisch gefundene Wert der Statistik unter der Annahme, eine spezielle zu überprüfende Nullhypothese sei korrekt, plausibel (oder unplausibel) ist, lässt sich aus der gegebenen Irrtumswahrscheinlichkeit und der Information über die Stichprobengröße der erforderliche Parameter (Nichtzentralitätsparameter) der gewählten Verteilung und daraus die dem Test zugrundeliegende Effektstärke ermitteln. In ähnlicher Weise kann ein berichtetes eingehaltenes Signifikanzniveau dazu verwendet werden, eine Abschätzung zu geben, wie groß die Effektstärke mindestens gewesen sein muss, damit für eine gegebene Stichprobengröße das berichtete Signifikanzniveau eingehalten werden konnte.

In der Fisherschen Testtheorie kann der p-Wert eine Effektgröße darstellen, da ein kleiner p-Wert als hohe Wahrscheinlichkeit für das Zutreffen der Forschungshypothese interpretiert wird. Bedingt durch die Standardisierung der Teststatistiken kann jedoch durch Vergrößern der Stichprobe jeder Effekt signifikant „gemacht“ werden. Unter Neyman-Pearson ist allerdings der Tatsache Rechnung zu tragen, dass ein Annehmen der Forschungshypothese immer mit einem Ablehnen der Nullhypothese einhergeht. Ein Ergebnis, das unter der Nullhypothese hochsignifikant wird, kann unter der Forschungshypothese noch viel unwahrscheinlicher sein, da sich die Teststärke extrem reduziert. Als Effektgröße ist der p-Wert somit nicht geeignet, da der Effekt in der Forschungshypothese zu klein sein kann, um von praktischer Bedeutung zu sein.

Maßzahlen für die Effektstärke[Bearbeiten | Quelltext bearbeiten]

Bravais-Pearson-Korrelation r[Bearbeiten | Quelltext bearbeiten]

Die Bravais-Pearson-Korrelation ist eine der meistgenutzten und ältesten Maßzahlen für Effektstärken bei Regressionsmodellen. Sie erfüllt in natürlicher Weise die Anforderungen, die Cohen an eine Effektstärke stellte.

Nach Cohen[1] indiziert einen kleinen Effekt, einen mittleren und einen starken Effekt.

Alternativ kann das Bestimmtheitsmaß benutzt werden.

Cohens d[Bearbeiten | Quelltext bearbeiten]

Cohens d[1] ist die Effektgröße für Mittelwertunterschiede zwischen zwei Gruppen mit gleichen Gruppengrößen sowie gleichen Gruppenvarianzen und hilft bei der Beurteilung der praktischen Relevanz eines signifikanten Mittelwertunterschieds (siehe auch t-Test):

Als Schätzer für gleiche Gruppengrößen und unterschiedliche Varianzen wurde von Cohen

angegeben, wobei den jeweiligen Mittelwert aus den beiden Stichproben und die geschätzten Varianzen aus den beiden Stichproben nach der Gleichung bezeichnen.

Nach Cohen[1] bedeutet ein zwischen 0,2 und 0,5 einen kleinen Effekt, zwischen 0,5 und 0,8 einen mittleren und ein größer als 0,8 einen starken Effekt.[2]

Ungleiche Gruppengrößen und Gruppenvarianzen[Bearbeiten | Quelltext bearbeiten]

Andere Autoren als Cohen schätzen die Standardabweichung mit Hilfe der gepoolten Varianz [3] als

mit

Umrechnung in r[Bearbeiten | Quelltext bearbeiten]

Wird die Zugehörigkeit zu der einen Stichprobe mit Null und zu der anderen mit Eins kodiert, so kann ein Korrelationskoeffizient berechnet werden. Er ergibt sich aus Cohens als

.

Im Gegensatz zu Cohens ist der Korrelationskoeffizient nach oben durch Eins beschränkt. Von einem schwachen Effekt spricht man hier ab einem r=0,10, einem mittleren Effekt ab einem r=0,30 und einem starken Effekt ab r=0,50.

Glass’ Δ[Bearbeiten | Quelltext bearbeiten]

Glass (1976) schlug vor, nur die Standardabweichung der zweiten Gruppe zu benutzen

Die zweite Gruppe wird hier als Kontrollgruppe betrachtet. Wenn Vergleiche mit mehreren Experimentalgruppen durchgeführt werden, dann ist es besser aus der Kontrollgruppe zu schätzen, damit die Effektstärke nicht von den geschätzten Varianzen der Experimentalgruppen abhängt.

Unter der Annahme von gleichen Varianzen in beiden Gruppen ist jedoch die gepoolte Varianz der bessere Schätzer.

Hedges g[Bearbeiten | Quelltext bearbeiten]

Larry Hedges schlug 1981 eine weitere Modifikation vor.[4] Es handelt sich dabei um dengleichen Ansatz wie bei Cohen's d, mit einer Korrektur der gepoolten Standardabweichung. Leider ist die Terminologie oft ungenau. Ursprünglich wurde diese korrigierte Effektstärke auch d genannt.[5] Hedges g wird auch Cohens genannt.[6] Cohens d und Hedges g sind weitgehend vergleichbar, allerdings gilt Hedges Modifikation als fehleranfälliger.[7] Insbesondere liefert Hedges g für kleine Stichproben keine erwartungstreuen Schätzer, kann aber korrigiert werden.[8] Hedges g kann nützlich sein, wenn die Stichprobengrößen unterschiedlich sind.[9]

Hedges g wird wie folgt berechnet:

und

ergibt einen verzerrten Schätzer der Effektstärke. Einen unverzerrten Schätzer g* erhält man durch folgende Korrektur:[10]

und

ergibt einen unverzerrten Schätzer, der zur Berechnung der Konfidenzintervalle der Effekt-Stärken von Stichprobenunterschieden besser geeignet ist als Cohens d, welcher die Effekt-Stärke in der Grundgesamtheit schätzt. bezeichnet hierbei die Gamma-Funktion.

Cohens f2[Bearbeiten | Quelltext bearbeiten]

Cohens ist ein Maß für die Effektstärke im Rahmen der ANOVA beziehungsweise des F-Tests und der Regressionsanalyse.

Regressionsanalyse[Bearbeiten | Quelltext bearbeiten]

Die Effektstärke berechnet sich

mit den Bestimmtheitsmaßen mit allen Variablen des Regressionsmodells und ohne die zu testende Variable. Ist nur der gemeinsame Effekt aller Variablen von Interesse, reduziert sich die obige Formel zu

Nach Cohen[1] indiziert einen kleinen Effekt, einen mittleren und einen starken Effekt.

F-Test bzw. ANOVA[Bearbeiten | Quelltext bearbeiten]

Die Effektstärke berechnet sich für Gruppen als

mit ein Schätzer für die Gesamtvarianz des Datensatzes. Nach Cohen[1] indiziert einen kleinen Effekt, einen mittleren und einen starken Effekt.

Partielles Eta-Quadrat[Bearbeiten | Quelltext bearbeiten]

Die Effektstärke kann auch über das partielle Eta-Quadrat angegeben werden. Die Berechnung ergibt sich folgendermaßen:

mit als Quadratsumme des jeweiligen zu bestimmenden Effektes und als Quadratsumme der Residualvarianz [11]. Multipliziert man das partielle Eta-Quadrat mit 100 kann es zur Interpretation der Varianzaufklärung eingesetzt werden. Das Maß gibt dann an, wieviel Varianz der abhängigen Variablen prozentual durch die unabhängige Variable erklärt wird. Das Programm SPSS von IBM berechnet bei Varianzanalysen standardmäßig partielles Eta-Quadrat. In älteren Programmversionen wurde dies fälschlicherweise als Eta-Quadrat bezeichnet. Bei einer einfaktoriellen ANOVA besteht zwischen Eta-Quadrat und partiellem Eta-Quadrat kein Unterschied. Sobald eine mehrfaktorielle ANOVA berechnet wird, muss das partielle Eta-Quadrat berechnet werden.

Eta-Quadrat als Effektstärkemaß überschätzt aber den Anteil der erklärten Varianz. Rasch et al. und Bortz empfehlen stattdessen die Verwendung des Populationseffektschätzers , welcher durch Cohens folgendermaßen berechnet wird [11] [12] :

Cramers Phi, Cramers V und Cohens w[Bearbeiten | Quelltext bearbeiten]

Ein Maß für die Effektstärke kann nicht nur auf der Grundlage von Mittelwert- oder Varianzunterschieden, sondern auch in Bezug auf Wahrscheinlichkeiten berechnet werden. Siehe dazu [13], Seite 4. In diesem Fall wird aus den Zahlen einer Kreuztabelle, die Wahrscheinlichkeiten statt absoluter Häufigkeiten enthält, berechnet und daraus die Wurzel gezogen. Das Ergebnis ist Cohens :

Dabei ist die Anzahl der Kategorien der Spaltenvariable, die Anzahl der Kategorien der Zeilenvariable, die beobachtete Wahrscheinlichkeit in der Zelle i.j und die erwartete Wahrscheinlichkeit in der Zelle i.j. Erwartete Zellenwahrscheinlichkeiten werden berechnet, indem die jeweils entsprechenden Randwahrscheinlichkeiten miteinander multipliziert werden. Zur Berechnung von siehe auch [14] und zu Cohens [15] und [13], Seite 6. Da bei Kreuztabellen, die nicht absolute Häufigkeiten, sondern Wahrscheinlichkeiten enthalten, an der Stelle, an der normalerweise die Fallzahl zu finden ist, immer 1 steht, kann statt auch berechnet werden, was numerisch identisch ist:

Ebenfalls numerisch identisch ist es, wenn in Bezug auf Kreuztabellen, die Wahrscheinlichkeiten enthalten, berechnet wird, wobei die Anzahl der Zeilen, die Anzahl der Spalten und die kleinere der beiden Zahlen ist.[1]

Für Cohens gelten konventionell der Wert 0,1 als klein, 0,3 als mittel und 0,5 als groß.[15]

Kleine, mittlere und große Effektstärken[Bearbeiten | Quelltext bearbeiten]

Die vorher angegebenen Werte für kleinere, mittlere oder große Effektstärken hängen stark vom Sachgebiet ab. Cohen hat die Werte im Rahmen seiner Analysen und dem sozialwissenschaftlichen Usus gewählt.

“This is an elaborate way to arrive at the same sample size that has been used in past social science studies of large, medium, and small size (respectively). The method uses a standardized effect size as the goal. Think about it: for a "medium" effect size, you'll choose the same n regardless of the accuracy or reliability of your instrument, or the narrowness or diversity of your subjects. Clearly, important considerations are being ignored here. "Medium" is definitely not the message!”

„Dies ist ein komplizierter Weg um zu den gleichen Stichprobenumfängen zu gelangen, die in der Vergangenheit in großen, mittleren und kleinen sozialwissenschaftlichen Studien benutzt worden sind. Diese Methode hat eine standardisierte Effektstärke zum Ziel. Denken wir darüber nach: Für eine "mittlere" Effektstärke wählen wir den gleichen Stichprobenumfang unabhängig von der Genauigkeit oder der Verlässlichkeit des Instrumentes, die Ähnlichkeit oder die Unterschiede der Untersuchungsobjekte. Natürlich werden hier wichtige Aspekte der Untersuchung ignoriert. "Mittel" ist kaum die Botschaft!“

R.V. Lenth: [16]

Sie werden daher von vielen Forschern nur als Richtwerte akzeptiert beziehungsweise kritisch hinterfragt. Eine empirische Untersuchung bezüglich der Häufigkeiten der Effektstärken in der Differentiellen Psychologie hat ergeben, dass Cohens Einteilung der Pearson-Korrelationen (klein = 0,10; mittel = 0,30; groß = 0,50) die Befundlage in diesem Forschungsbereich unzureichend abbilden. So konnten nur in weniger als 3% der herangezogenen Studienergebnisse (insgesamt 708 Korrelationen) eine Effektstärke von mindestens beobachtet werden. Basierend auf dieser Untersuchung wird vielmehr empfohlen, als kleine, als mittlere und als große Effektstärke zu interpretieren.[17]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. a b c d e f g Cohen, J. (1988): Statistical Power Analysis for the Behavioral Sciences, 2. Aufl., Hillsdale: Lawrence Erlbaum Associates. ISBN 978-0805802832
  2. Lenhard, W. / Original design by Viklund, A. - http://andreasviklund.com/: Berechnung der Effektstärken d (Cohen, 2001), dkorr (nach Klauer, 2001), d aus t-Tests, r, Eta-Quadrat und Umrechnung verschiedener Maße: Psychometrica. In: psychometrica.de. Abgerufen am 28. April 2016.
  3. Hartung, J., Knapp, G., Sinha, B.K. (2008), Statistical Meta-Analysis with Application, Wiley, New Jersey, ISBN 978-0470290897
  4. Hedges, L.V. (1981). Distribution theory for Glass's estimator of effect size and related estimators". Journal of Educational Statistics 6 (2): S. 107–128.
  5. Comparison of groups with different sample size (Cohen's d, Hedges' g) – Erklärung und Berechnung von Hedges g.
  6. Bühner, Markus, and Matthias Ziegler. Statistik für Psychologen und Sozialwissenschaftler. Pearson Deutschland GmbH, 2009. S. 175
  7. Reinecke, Henriette. Klinische Relevanz der therapeutischen Reduktion von chronischen nicht tumorbedingten Schmerzen. Logos Verlag Berlin GmbH, 2010. S. 49.
  8. Bühner, Markus, and Matthias Ziegler. Statistik für Psychologen und Sozialwissenschaftler. Pearson Deutschland GmbH, 2009. S. 175
  9. Ellis, Paul D. The essential guide to effect sizes: Statistical power, meta-analysis, and the interpretation of research results. Cambridge University Press, 2010. S. 10.
  10. Margraf, Jürgen. "Kosten und Nutzen der Psychotherapie." Eine kritische (2009). S. 15.
  11. a b Rasch,B., Friese,M., Hofmann,W., & Naumann,E.(2010). Quantitative Methoden 2. Einführung in die Statistik für Psychologen und Sozialwissenschaftler. Heidelberg: Springer, S.78/79
  12. Bortz,J.(2005). Statistik für Sozial- und Humanwissenschaftler. Heidelberg: Springer, S.280/281
  13. a b Dirk Wentura, 2004: Ein kleiner Leitfaden zur Teststärke-Analyse. Saarbrücken: Fachrichtung Psychologie der Universität des Saarlandes, (online)
  14. Hans Benninghau, (6)1989: Statistik für Soziologen 1. Deskriptive Statistik. (= Teubner Studienskripten 22) Stuttgart: Teubner, ab S. 100
  15. a b Jürgen Bortz, (6)2005: Statistik für Human- und Sozialwissenschaftler. Heidelberg: Springer, S. 167–168
  16. Lenth, R.V. (2006) Java applets for power and sample size, Division of Mathematical Sciences, the College of Liberal Arts or The University of Iowa, Zugriff am 26. Dezember 2008
  17. Gignac, G. E., & Szodorai, E. T. (2016). Effect size guidelines for individual differences researchers. Personality and Individual Differences, 102, 74–78. doi:10.1016/j.paid.2016.06.069

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Chin, Wynne W. (1998): The Partial Least Squares Approach to Structural Equation Modeling, in: Marcoulides, George A. (Hrsg.): Modern Methods for Business Research, Mahwah: Lawrence Erlbaum Associates, Inc., Seite 295-336.
  • Cohen, Jacob (1992): A power primer. Psychological Bulletin, 112, 155-159.
  • Huber, Oswald (2000): Das psychologische Experiment. Bern u. a.
  • Maier-Riehle, Brigitte, Zwingmann, Christian (2000): Effektstärkevarianten beim Eingruppen-Prä-Post-Design: Eine kritische Betrachtung. Rehabilitation, 39, S. 189-199.
  • Schnell, Rainer, Hill, Paul B., Esser, Elke (1999): Methoden der empirischen Sozialforschung. München, Wien.
  • Bortz, Jürgen, Döring, Nicola: Forschungsmethoden und Evaluation. 2. Auflage Springer, Berlin u.a. 1996, ISBN 3-540-59375-6.

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Weblinks[Bearbeiten | Quelltext bearbeiten]