Wissenschaftliches Peer-Review

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Reviewed Paper)
Wechseln zu: Navigation, Suche

Wissenschaftliches Peer-Review (englisch von Peer, Gleichrangiger und Review, Gutachten), auch Kreuzgutachten, ist die im Wissenschaftsbetrieb angewandte Spezialform des Peer-reviews. Dabei werden unabhängige Gutachter aus dem gleichen Fachgebiet wie die Autoren herangezogen, um die Eignung zur Veröffentlichung zu beurteilen. Peer-Review ist ein wesentliches Element moderner Wissenschaft und dient der Qualitätssicherung von wissenschaftlichen Publikationen.

Viele wissenschaftliche Fachzeitschriften nutzen Peer-Review, häufig in Form eines Doppelblindgutachtens. Auch bei Anträgen zur Förderung von Forschungsprojekten und zunehmend auch von Monographien sind Peer-Reviews üblich.

Definition[Bearbeiten | Quelltext bearbeiten]

Peer-Review besteht darin, externe, anonyme und unabhängige Gutachter (engl. reviewer oder referee) Forschungsaufsätze oder Anträge von Forscherkollegen inhaltlich zu bewerten und Empfehlungen für das weitere Verfahren zu geben. Dies kann eine Empfehlung für eine sofortige Ablehnung, Überarbeitung oder die sofortige Akzeptanz sein. Viele Fachzeitschriften nutzen die Meinung mehrerer voneinander unabhängiger Gutachter.

Üblicherweise schicken Autoren ihre Manuskripte zur Veröffentlichung an einen Verantwortlichen (Herausgeber bzw. Redakteur) eines Journals. Dieser entscheidet über grundsätzliche Eignung und wählt dann Gutachter aus. Bei großen Fachzeitschriften steht zwischen dem Verantwortlichen und dem oder den Gutachtern ein verantwortlicher Redakteur bzw. Herausgeber. Die Gutachter dürfen beim Peer-Review nicht aus dem Umfeld des Autors stammen, um größtmögliche Unabhängigkeit zu wahren.

Zweck[Bearbeiten | Quelltext bearbeiten]

Der Sinn der Begutachtung liegt vor allem in einer Bewertung der Qualität eines eingereichten Manuskripts, die dem Herausgeber der Fachzeitschrift Anhaltspunkte liefert, ob dieses als Artikel darin veröffentlicht werden kann. Durch die hohe Anzahl von wissenschaftlichen Fachzeitschriften und Fachgebieten sind die Bewertungsmaßstäbe oft sehr unterschiedlich und richten sich nach dem Leserkreis und der Reputation des Fachjournals. In der Regel wird der Gutachter das Manuskript nach offensichtlichen Defiziten oder Verbesserungsmöglichkeiten bewerten und nur gelegentlich auf Rechtschreibfehler oder sprachliche Unzulänglichkeiten hinweisen. Sehr detaillierte Gutachten, inklusive Prüfung der verwendeten Methoden, werden vor allem von Artikeln verlangt, die von außerordentlich hohem Interesse für einen großen Leserkreis sind (beispielsweise in Nature oder Science).

Das Peer-Review ist im Allgemeinen keine Methode, um Fälschungen oder in betrügerischer Absicht gemachte Experimente aufzudecken. Es bedeutet auch nicht, dass die wissenschaftliche Arbeit frei von Fehlern ist. Der Gutachter kann nur im Rahmen seiner Möglichkeiten die Signifikanz und Aktualität der Fragestellung, die Originalität und Validität des Lösungsansatzes und die Plausibilität der Resultate im Kontext überprüfen sowie auf methodische Fehler hinweisen.

Verfahrensweisen[Bearbeiten | Quelltext bearbeiten]

Traditionell existieren zwei Form, nämlich das Einfachblind- und das Doppelblindgutachten. Beim Einfachblindgutachten (engl. single blind review) ist nur der Gutachter den Autoren gegenüber anonym, nicht aber die Autoren gegenüber dem Gutachter. Beim Doppelblindgutachten (engl. double blind review) hingegen sind auch die Autoren gegenüber dem Gutachter anonym. Die Autoren sind dann gehalten, im Text Passagen zu vermeiden, die der Anonymität zuwiderlaufen könnten (beispielsweise Selbstzitierungen in der ersten Person, Hinweise auf die eigene Forschungseinrichtung).[1]

Die Anonymität dient dazu, dem Gutachter das Äußern von Kritik und den Hinweis auf Mängel der Publikation zu ermöglichen, ohne dass er die Revanche des möglicherweise hierarchisch oder an Reputation und Einfluss höher stehenden Autors fürchten muss. Das soll eine gründliche und unvoreingenommene Überprüfung ohne Ansehen der Person des Autors sichern und letztlich ein höheres wissenschaftliches Niveau erreichen lassen. Das Prinzip der Anonymität des Gutachters ist nicht unumstritten.[2]

Geschichte[Bearbeiten | Quelltext bearbeiten]

Die Geschichte des Peer-Review geht zurück bis in das 17. Jahrhundert. Henry Oldenburg, Herausgeber der seit 1665 in London erscheinenden Philosophical Transactions, sah sich als Theologe nicht in der Lage, die Qualität eingereichter Aufsätze zu naturwissenschaftlichen Themen selbst angemessen zu beurteilen. Er delegierte diese Aufgabe daher an andere Wissenschaftler, die zum jeweiligen Thema als fachkompetent galten. Dieses Verfahren wurde später von anderen wissenschaftlichen Zeitschriften übernommen.[3]

Verbreitung[Bearbeiten | Quelltext bearbeiten]

Weltweit gibt es etwa 21.000 Zeitschriften, die verschiedene Arten von Peer-Review einsetzen. Sie veröffentlichen jährlich etwa 1 Million Aufsätze. Es gibt allerdings auch viele wissenschaftliche Zeitschriften, die lediglich mit editorial review arbeiten.

Peer-Review-Publikationen haben aufgrund der mit der Begutachtung verbundenen Qualitätsprüfung einen besseren Ruf als andere Formen der Veröffentlichung wie etwa Kongressbeiträge oder Fachzeitschriften ohne Peer-Review. Die Anzahl solcher Veröffentlichungen wird als Maß für die Produktivität und den Einfluss der Autoren auf ein Wissensgebiet angesehen.

Kritik[Bearbeiten | Quelltext bearbeiten]

Das Peer-Review-Verfahren wird aus mehreren Gründen kritisiert:

  1. Es dauert meist etliche Monate, in manchen Fällen sogar Jahre, bis ein Fachartikel erscheint.[4]
  2. Die Neutralität der Gutachter ist nicht garantiert. Es gibt keine Gewähr, dass die Gutachter nicht ihren eigenen Standpunkt zu strittigen Fragen als Entscheidungsgrundlage heranziehen.[4] Insbesondere können Gutachter ihre eigenen Ziele verfolgen und beispielsweise Autoren absichtlich schlecht dastehen lassen.[1]

Auch die Anonymität wird kritisiert, weil es überzogenes, destruktives Kritisieren begünstige. Etablierte Experten eines Teilgebiets der Wissenschaft könnten durch unfundiert-abwertende Gutachten das Eindringen von Konkurrenten in ihre „Nische“ verhindern, und müssten sich bei Anonymität dafür nicht namentlich rechtfertigen. Die Anonymität der Gutachter fördere so das „Revierverhalten“ und behindere einen effizienten Qualitätswettbewerb.[1][2]

Anonymität des Gutachters kann zu Beurteilungen führen, die aus Zeitmangel, ungenügendem Interesse oder Unwissen nicht gewissenhaft genug erstellt wurden. So kann ein schlechter Artikel im Begutachtungsverfahren für gut befunden werden, ohne dass der Gutachter um seinen guten Ruf in der Wissenschaftsgemeinde fürchten muss.

Eine Studie von John P. A. Ioannidis aus dem Jahr 2005 über das Peer-Review-Modell in medizinischen Veröffentlichungen hat ergeben, dass in fast einem Drittel der Studien zwischen 1990 und 2003, die nach einer Begutachtung veröffentlicht wurden, die Resultate entweder übertrieben waren oder später als widersprüchlich erkannt wurden.[5] Von den untersuchten Artikeln erhielten 16 % keine Zustimmung, und weitere 16 % wurden in Folgestudien nicht bestätigt. Ioannidis räumte ein, dass viele Faktoren, wie andere oder bessere Versuchsanordnungen der zu wiederholenden Untersuchungen, die Unstimmigkeiten begünstigt haben könnten. Der Prozess des Reviews ist unter den 10.000 medizinischen Zeitschriften weltweit nicht standardisiert. Die Ergebnisse der Studie ließen Zweifel an der Zuverlässigkeit des Peer-Reviews aufkommen. Die in der Regel externen und nicht bezahlten Gutachter bewerten die Stichhaltigkeit des Artikels, ihre Kommentare und Identität werden jedoch vertraulich gehalten. Einige Herausgeber befürworteten daraufhin, die Gutachter öffentlich beim Namen zu nennen und zu bezahlen, andere versichern hingegen, dass das aktuelle Peer-Preview-Modell die Veröffentlichung vor fehlerhaften Details und unsicheren medizinischen Anweisungen bewahrt.

Alternativen zum traditionellen Peer-Review[Bearbeiten | Quelltext bearbeiten]

In Zusammenhang mit der Zeitschriftenkrise und dem elektronischen Publizieren entwickeln sich neue Qualitätssicherungsverfahren.

Offenes Peer-Review[Bearbeiten | Quelltext bearbeiten]

Hauptartikel: Offenes Peer-Review

2006 startete eine Wissenschaftler-Gruppe aus Großbritannien das Online-Journal Philica, bei dem sie die Probleme des traditionellen Peer Review zu lösen versuchten. Anders als sonst üblich werden alle eingereichten Artikel zuerst publiziert, und der Offenes-Peer-Review-Prozess startet erst danach. Allerdings existiert dafür keine einheitliche Definition. Bei Philica versteht man unter offenem Peer-Review, dass Gutachter nicht von den Herausgebern ausgesucht, sondern jeder willige Forscher selbst tätig werden kann, um den Artikel kritisieren. Sie bleiben dabei dennoch anonym. Die Gutachten werden am Ende jedes Artikels angehängt, und geben dem Leser so eine Einschätzung der Qualität der Arbeit.

Der Verlag Elsevier unter andere verstehen darunter jedoch, dass der oder die Gutachter nicht mehr anonym sind, jedoch nach wie vor dem Verantwortlichen des Journals ausgewählt werden.[1]

Dynamisches Peer-Review[Bearbeiten | Quelltext bearbeiten]

Ein ähnliches Projekt ist Dynamic-Peer-Review der Webseite Naboj.[6] Der Unterschied zu Philica besteht darin, dass Naboj kein vollständiges Online-Journal ist, sondern ein Forum für Gutachten von Preprint-Artikeln der Seite arXiv.org. Das System ist dem Beurteilungssystem von Amazon.com nachempfunden, und bietet den Benutzern die Möglichkeit, sowohl die Artikel, als auch die einzelnen Reviews zu bewerten. Dadurch bietet das System den Vorteil (bei einer genügend großen Zahl von Benutzern und Gutachtern), dass die Qualität demokratisch beurteilt wird.

Paralleles offenes Peer-Review[Bearbeiten | Quelltext bearbeiten]

Im Juni 2006 begann Nature mit einem Versuch namens parallel open peer review. Einige Artikel, die für einen traditionellen Review-Prozess eingereicht wurden, wurden parallel dazu auch öffentlich zugänglich gemacht, um kommentiert zu werden. Der Versuch wurde im Dezember 2006 als erfolglos bewertet und eingestellt.[7]

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Ann C. Weller: Editorial Peer Review: Its Strengths and Weaknesses. asis&t, 2001, ISBN 1-57387-100-1 (Übersicht von Studien über das Kreuzgutachtensystem aus verschiedenen Fachbereichen von 1945 bis 1997).
  • Thomas Gold: New Ideas in Science. In: Journal of Scientific Exploration. Bd. 3, 1989, Nr. 2, S. 103–112 (online) (Memento vom 9. Oktober 2010 im Internet Archive).
    (Anstelle konformitätsfördernder Anonymität von Spezialisten zur Begutachtung fordert Gold einen science court mit Wissenschaftlern aus unterschiedlichen Fachgebieten von einer Fakultät.)
  • John P. A. Ioannidis: Contradicted and Initially Stronger Effects in Highly Cited Clinical Research. In: The Journal of the American Medical Association. Bd. 294, 2005, S. 218–228 (Abstract).
  • Gerhard Fröhlich: “Informed Peer Review” – Ausgleich der Fehler und Verzerrungen? In: Von der Qualitätssicherung der Lehre zur Qualitätsentwicklung als Prinzip der Hochschulsteuerung. Hochschulrektorenkonferenz, Bonn 2006, S. 193–204 (PDF).
  • Gerhard Fröhlich: Peer Review auf dem Prüfstand der Wissenschaftsforschung. In: medizin-bibliothek-information Bd. 3, 2003, Nr. 2, S. 33–39 (PDF).
  • Stefan Hornbostel, Meike Olbrecht: Peer Review in der DFG: Die Fachkollegiaten. iFQ-Working Paper No.2, Bonn 2007, ISSN 1864-2799 (PDF).
  • Stefan Hornbostel, Dagmar Simon (Hrsg.): Wie viel (In-)Transparenz ist notwendig? – Peer Review Revisited. iFQ-Working Paper No.1. Bonn 2006, ISSN 1864-2799 (PDF).
  • Heinrich Zankl: Fälscher, Schwindler, Scharlatane: Betrug in Forschung und Wissenschaft. Wiley-VCH, Weinheim 2003, ISBN 3-527-30710-9.
  • Science between Evaluation and Innovation: A Conference on Peer Review (= Max-Planck-Forum. Bd. 6). München 2003 (Dokumentation einer Tagung der Max-Planck-Gesellschaft und der Deutschen Forschungsgemeinschaft).
  • Hans-Hermann Dubben, Hans-Peter Beck-Bornholdt: Unausgewogene Berichterstattung in der medizinischen Wissenschaft. Institut für Allgemeinmedizin des Universitätsklinikums Hamburg-Eppendorf, Hamburg 2004 (PDF).

Weblinks[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. a b c d What is peer review? elsevier.com (Elsevier), abgerufen am 17. Februar 2016 (englisch).
  2. a b Ronald N. Kostoff: Research Program Peer Review: Purposes, Principles, Practices, Protocols (PDF; 852 kB). Office of Naval Research, Arlington, VA, (Report) 2004, S. 23.
  3. Irving E. Rockwood: Peer review: more interesting than you think. In: Choice 44.2007,9, S. 1436.
  4. a b Alfred Kieser: Die Tonnenideologie der Forschung. Akademische Rankings. In: Frankfurter Allgemeine Zeitung. 11. Juni 2010, abgerufen am 9. Januar 2012.
  5. Ioannidis (2005): „Contradicted and Initially Stronger Effects in Highly Cited Clinical Research“.
  6. Offizielle Website von Naboj.
  7. Overview: Nature's trial of open peer review (englisch) www.nature.com. Abgerufen am 11. Juni 2009.