Metaanalyse

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Forest plot zur grafischen Veranschaulichung der Ergebnisse einer Metaanalyse. Die senkrechte Linie bezeichnet jenes Odds Ratio oder Risk Ratio, welches keinem Zusammenhang zwischen untersuchtem Einflussfaktor und der abhängigen Variable entspricht. Die Quadrate stellen das Risiko-Maß der Einzelstudien dar, die waagerechten Linie die jeweiligen Konfidenzintervalle. Analog dazu zeigt der Rhombus und die dazugehörige Linie die Werte der zusammengefaßten Daten dar.

Eine Metaanalyse ist eine Zusammenfassung von Primär-Untersuchungen zu Metadaten, die mit quantitativen und statistischen Mitteln arbeitet. Sie versucht frühere Forschungsarbeiten quantitativ bzw. statistisch zusammenzufassen und zu präsentieren. Der Unterschied zur systematischen Übersichtsarbeit (auch „Review“ genannt) liegt darin, dass ein Review die früheren Forschungsdaten und -publikationen kritisch würdigt, während die Metaanalyse nur die quantitative und statistische Aufarbeitung der früheren Ergebnisse umfasst.

Metaanalysen werden in allen Forschungsgebieten durchgeführt, in welchen empirische Daten anfallen. Dazu gehören Sozialwissenschaften, Medizin und viele Naturwissenschaften.

Schöpfung des Begriffs[Bearbeiten | Quelltext bearbeiten]

Der Begriff wurde 1976 vom Psychologen Gene V. Glass (* 1940) in seinem Artikel „Primary, Secondary and Meta-Analysis of Research“ eingeführt. Er definiert Metaanalyse als […] analysis of analyses. I use it to refer to the statistical analysis of a large collection on analysis results from individual studies for the purpose of integrating the findings. (deutsch: „[…] Analyse von Analysen. Damit meine ich die statistische Analyse einer großen Sammlung von Analyse-Ergebnissen mehrerer Einzelstudien, die dadurch zusammengeführt werden sollen.“).[1] Durchgeführt wurde die erste Metaanalyse jedoch bereits 1904 von Karl Pearson, der die Teststärke von Studien mit wenigen Probanden durch Zusammenfassung erhöhen wollte.

Einsatzgebiete und Gründe[Bearbeiten | Quelltext bearbeiten]

Metaanalysen ermöglichen die Zusammenfassung von verschiedenen Untersuchungen zu einem wissenschaftlichen Forschungsgebiet. Dabei werden die empirischen Einzelergebnisse inhaltlich homogener Primärstudien zusammengefasst. Ziel ist eine Effektgrößeneinschätzung. Es soll untersucht werden, ob ein Effekt vorliegt und wie groß dieser ist.

Gründe für die Durchführung von Meta-Analysen sind unter anderem:

  • Aus mancherlei Gründen sind die Stichproben der Primärstudien viel zu klein, um verlässliche Ergebnisse zu bringen: Kann man nun viele Untersuchungen geeignet zusammenfassen, so ist das damit gewonnene Ergebnis sehr viel genauer und sicherer.
  • Häufig benutzen die Primärstudien nicht genau dieselben Methoden, Definitionen oder ziehen ihre Stichproben nicht aus derselben Grundgesamtheit. Dann ist zunächst einmal fraglich, ob und wie man diese Einflüsse von dem Gegenstand der Untersuchung überhaupt trennen kann. In einer Meta-Analyse versucht man zu ergründen, wie stark diese Einflüsse sind, und ob man trotzdem ein valides Gesamtbild erstellen kann.
  • Nicht zu unterschätzen ist, dass die Durchführung von Meta-Analysen (und auch Reviews) relativ kostengünstig ist, und trotzdem wertvolle Ergebnisse liefert. Sie liefert für ein gesamtes Forschungsgebiet die Grundlage, um die künftigen Forschungstätigkeiten zu skizzieren.
  • Der Publikationsbias, d.h. die Menge der nicht veröffentlichten Forschungsergebnisse zum betreffenden Thema, kann eingeschätzt werden.

Methode[Bearbeiten | Quelltext bearbeiten]

Eine Metaanalyse umfasst sämtliche Elemente des sozialwissenschaftlichen Forschungsprozesses, wie sie auch bei einer Primärforschung vollzogen werden (Cooper 1982; Schnell et al. 1995).

  1. Am Beginn stehen die Auswahl eines geeigneten Forschungsproblems sowie die genaue Eingrenzung des Forschungsgegenstandes.
  2. Die Datenerhebung besteht im Fall publikationsbasierter Metaanalysen in einer systematischen und möglichst erschöpfenden Literaturrecherche.
  3. Im Anschluss daran werden die Informationen in den gesammelten Publikationen codiert und elektronisch aufbereitet.
  4. Die eigentliche (statistische) Datenanalyse besteht in der Regel aus zwei Schritten: der Befundintegration und der anschließenden Heterogenitätsanalyse.
  5. Abschließend sind die Ergebnisse angemessen aufzubereiten und mit Bezug auf das Forschungsproblem zu interpretieren.

Das Verfahren der Metaanalyse ähnelt dem narrativen Review, das die einschlägige Literatur zu einem wissenschaftlichen Thema strukturiert vorstellt, vergleicht und mit kritischen Kommentaren versieht. Kritisiert wird die Subjektivität der Auswahl von Untersuchungen. Hier erreicht die Metaanalyse eine größere Objektivität, indem sie Kriterien für die Auswahl der Primärstudien für die Metaanalyse festlegt. Dadurch verringert sich allerdings die mögliche Anzahl der Untersuchungen, die in eine Metaanalyse aufgenommen werden können.

Die Zusammenfassung verschiedener Untersuchungen zu einem wissenschaftlichen Forschungsgebiet ist nur sinnvoll, wenn die Effektgrößen der einzelnen Untersuchungen Schätzungen einer gemeinsamen Populationseffektgröße sind. Es ist eine Homogenitätsprüfung notwendig.

Homogenitätsprüfungen gehen von einer einheitlichen Effektgröße Δ (sprich: Delta) aus. Δ ist ein universelles Effektgrößenmaß und entspricht der bivariaten Produkt-Moment-Korrelation. Es wird präferiert, da verschiedene statistische Kennwerte (z. B. r, t, F) in Δ transformiert werden können.

Die studienspezifischen Effektgrößen werden anschließend durch einen Signifikanztest auf Homogenität geprüft. Sind die Effektgrößen homogen, kann ein durchschnittlicher Δ-Wert berechnet werden, er entspricht der Schätzung der Populationseffektgröße und kann auf Signifikanz geprüft und hinsichtlich seiner Größe klassifiziert werden.

Liegen heterogene Effektgrößen vor, so kann man Strategien anwenden, die die Untersuchungen mit heterogenen Effektgrößen in homogene Subgruppen teilen. Anschließend sollte der Einfluss von Moderatorvariablen auf die Heterogenität bestimmt werden, dies geschieht varianz- oder clusteranalytisch. Bestehen keine direkten Annahmen über die Wirkung von Moderatorvariablen, kann auch eine Korrelation zwischen den Moderatorvariablen und den studienspezifischen Effektgrößen berechnet werden. Die Höhe der Korrelation beschreibt dabei den Einfluss der Moderatorvariablen auf die Heterogenität der einzelnen Effektgrößen.

Da Untersuchungsberichte häufig lückenhaft sind und teils nur über signifikante bzw. nicht-signifikante Ergebnisse berichtet wird, gibt es Verfahren, die es ermöglichen, auch diese Untersuchungen metaanalytisch zu verwenden (z. B. Auszählung, Vorzeichentest, Binomialtest und Berechnung der exakten Irrtumswahrscheinlichkeit, es resultiert die Stouffer-Prüfgröße). Mit Hilfe des ‚fail-safe N‘ (nach Rosenthal, 1979[2]) lässt sich beim Vorliegen eines signifikanten Gesamttests ausrechnen, wie viele Studien mit einem mittleren Effekt der Größe Null noch zusätzlich vorhanden sein müssten, damit der Gesamttest nicht signifikant ist. Über die Berechnung des Fail-Save N soll dem Problem begegnet werden, dass graue Literatur, also unveröffentlichte Untersuchungen, nicht erfasst werden (siehe unten).[2]

Die Meta-Analyse kann am Ende mit einer sogenannten Meta-Regression abgerundet werden. Mit Regressionsverfahren wird festgestellt, welche Eigenschaften der Einzelstudien (z.B. diagnostische Kriterien, Herkunft, Anzahl Probanden, …) zu welchen Effektstärken führen.

Diskussion der Methode[Bearbeiten | Quelltext bearbeiten]

Garbage-in-Garbage-out-Problem[Bearbeiten | Quelltext bearbeiten]

Kritisiert wird, die Ergebnisse einer Metaanalyse seien wenig valide, weil jede beliebige Untersuchung, unabhängig von ihrer methodischen Qualität, in die Metaanalyse eingeht. Allerdings kann der Einfluss der methodischen Qualität der Untersuchungen auf das Ergebnis der Metaanalyse kontrolliert werden, indem entweder Qualitätskriterien qualitativ hervorstehende Studien stärker gewichten, oder Ausschlußkriterien mangelhafte Studien ausschließen. Die Studien können nach methodischer Qualität gruppiert und separat ausgewertet werden.

Hervorzuheben ist hier, dass Studien mit einer geringen Anzahl Probanden oder Stichproben nicht per se mangelhaft sind.

Äpfel-Birnen-Problem[Bearbeiten | Quelltext bearbeiten]

Kritisiert wird, dass Metaanalysen Untersuchungen mit unterschiedlichen Operationalisierungsvarianten zusammenfassen. Es wird gefordert, dass vor allem in Bezug auf die abhängige Variable homogene Operationalisierungen vorliegen müssen, da sie alle Indikatoren für das gleiche Konstrukt sein sollen. Andernfalls beziehen sich die Untersuchungen auf unterschiedliche Kriterien, eine Zusammenfassung wäre dann nicht sinnvoll.

Dieses Problem lässt sich ebenfalls damit beheben oder abmildern, indem die Studien nach Erscheinungszeitraum oder unterschiedlichen Definitionen/Operationalisierungen gruppiert und separat ausgewertet werden.

Schubladenproblem[Bearbeiten | Quelltext bearbeiten]

[3] (engl. File Drawer Problem[4]): Häufig werden nur Ergebnisse publiziert, die angenommene Hypothesen bestätigen oder signifikante Ergebnisse aufweisen, während Untersuchungen mit nicht-signifikanten Ergebnissen nicht veröffentlicht werden (Publikationsbias). Dadurch erfolgt eine Verzerrung der metaanalytischen Ergebnisse, da diese die Existenz eines Effekts zu oft nachweisen.[5] Unveröffentlichte Literatur bezeichnet man auch als graue Literatur. „Interessanterweise hatte die graue Literatur in der ehemaligen DDR als nicht zensierte Literatur meist einen höheren wissenschaftlichen Wert als die offizielle, staatlich kontrollierte Literatur.“[6] „Eine Liste der neuesten Diplomarbeiten und Dissertationen im Fach Psychologie ist halbjährlich der Psychologischen Rundschau beigelegt.“[6] Das Problem an graue Literatur heranzukommen wird bei Marylu C. Rosenthal[7] (1994) behandelt.[5]

Der Veröffentlichungs-Bias wird in jeder sorgfältigen Meta-Analyse zum Beispiel mit dem funnel plot abgeschätzt. Bereits zu Beginn einer Meta-Analyse soll aber beurteilt werden, inwiefern und mit welchem Aufwand die graue, nicht publizierte Literatur beschafft und berücksichtigt werden soll. In der veröffentlichten Literatur finden sich aber nicht selten Hinweise auf nicht publizierte Forschungsergebnisse, und heutzutage ist es dank dem Internet einfach, Forscher um unveröffentlichte Daten anzufragen. Allerdings erzeugt dieses Vorgehen wiederum eine methodische Schwäche, die kaum zu beheben ist.

Problem der abhängigen Messungen[Bearbeiten | Quelltext bearbeiten]

Dieses Problem tritt auf, wenn verschiedene (abhängige) Teilergebnisse an der gleichen Stichprobe erhoben worden sind. Dies kann etwa auftreten, wenn ein Wissenschaftler dasselbe Gesundheitsproblem mehrmals nacheinander im selben geografischen Gebiet untersucht hatte, und die Ergebnisse in mehreren Publikationen veröffentlichte. Da Untersuchungseinheiten von Metaanalysen aber Einzelstudien und nicht Teilstichproben sind, darf immer nur ein Ergebnis einer Untersuchung in die Metaanalyse mit eingehen, da andernfalls diese Untersuchung ein größeres Gewicht erhalten würde als eine Untersuchung, die nur mit einem Ergebnis in die Metaanalyse eingeht. Entweder beschränkt man sich auf das wichtigste oder aussagekräftigste Ergebnis unter den Teilergebnissen, oder man bildet das arithmetische Mittel als Schätzung des Gesamtergebnisses. Sind aber die Rohdaten aus allen Teilergebnissen vorhanden, lässt sich aber ein Gesamtergebnis rekonstruieren.

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Harris M. Cooper: Scientific guidelines for conducting integrative research reviews. In: Review of Educational Research 52, 1982, ISSN 0034-6543, S. 291–302.
  • Harris Cooper, Larry V. Hedges (Hrsg.): The Handbook of Research Synthesis. Russell Sage Foundation, New York NY 1994, ISBN 0-87154-226-9.
  • Gene V. Glass: Primary, Secondary and Meta-Analysis of Research. In: Educational Researcher 5, 1976, ISSN 0013-189x, S. 3–8.
  • Joachim Hartung, Guido Knapp, Bimal K. Sinha: Statistical meta-analysis with applications. J. Wiley & Sons, Inc., Hoboken NJ 2008, ISBN 978-0-470-29089-7, (Wiley Series in Probability and Statistics).
  • John E. Hunter, Frank L. Schmidt, Gregg B. Jackson: Meta-Analysis. Cumulating research findings across studies. Sage Publications, Beverly Hills CA 1982, ISBN 0-8039-1864-X, (Studying organizations 4), (Empfehlenswerte Einleitung).
  • Rainer Schnell, Paul B. Hill, Elke Esser: Methoden der empirischen Sozialforschung. 5. völlig überarbeitete und erweiterte Auflage. Oldenbourg Verlag, München u. a. 1995, ISBN 3-486-23489-7.

Weblinks[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Gene V. Glass: Primary, Secondary and Meta-Analysis of Research. In: Educational Researcher 5, 1976, S. 3–8.
  2. a b Performance und Vertrauen in Unternehmenskooperationen: Eine Metaanalyse zu den Bestimmungsfaktoren für den Zusammenhang zwischen Performance und Vertrauen in Unternehmenskooperationen. kassel university press GmbH, 2011, ISBN 978-3-86219-215-1, S. 135 (eingeschränkte Vorschau in der Google-Buchsuche).
  3. Forschungsmethoden und Evaluation: für Human- und Sozialwissenschaftler. Springer-Verlag, 2013, ISBN 978-3-662-07299-8, S. 646 (eingeschränkte Vorschau in der Google-Buchsuche).
  4. Metaanalyse. Rainer Hampp Verlag, 2014, ISBN 978-3-86618-975-1, S. 77 (eingeschränkte Vorschau in der Google-Buchsuche).
  5. a b Jürgen Bortz, Nicola Döring: Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler. 4., überarbeitete Auflage. Springer Medizin-Verlag, Heidelberg 2006, ISBN 3-540-33305-3, S. 674, (online).
  6. a b Jürgen Bortz, Nicola Döring: Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler. 4., überarbeitete Auflage. Springer Medizin-Verlag, Heidelberg 2006, ISBN 3-540-33305-3, S. 360, (online).
  7. Marylu C. Rosenthal: The Fugitive Literature. In: Harris Cooper, Larry V. Hedges (Hrsg.): The Handbook of Research Synthesis. Russell Sage Foundation, New York NY 1994, ISBN 0-87154-226-9, S. 85–94.