Peer Assessment

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Als Peer Assessment (englisch assessment ‚Beurteilung‘) wird eine Methode bezeichnet, bei der Peers (= Personen, die die gleiche Rolle in einem bestimmten Kontext haben[1], wie beispielsweise Schüler einer Klasse), das Produkt eines Lernenden evaluieren[2]. Falchikov (1986) beschreibt das Peer Assessment als eine Methode, bei der Peers reflektierte Kritik an dem Produkt eines anderen Lernenden üben und diesem Feedback zu vorher definierten Kriterien zur Verfügung stellen[3]. Dabei kann das Ziel die abschließende Bewertung eines Endproduktes sein – summatives Peer-Feedback (auch Peer Grading genannt) – beispielsweise die Endnote für ein Referat. Das Ziel kann aber auch die Verbesserung des Ergebnisses durch Einflussnahme während der Produkterstellung bzw. während des Lernens sein – formatives Feedback – beispielsweise Feedback zum ersten Entwurf eines Referats. Peer Assessments mit formativem Peer-Feedback können aufgrund ihres iterativen Charakters als Lernmethode angesehen werden[4].

Das Peer Assessment Verfahren wird je nach Variation dem Feld des kooperativen oder kollaborativen[5] Lernens zugeordnet, wobei Peer Assessment eine globale Bezeichnung ist. Es gibt je nach Forschungsbereich und Themenfeld (siehe Variationen) auch weitere Begriffe für Peer Assessment Verfahren, wie beispielsweise „Peer response“, „Peer editing“, & „Peer evaluation“[6] oder die besondere Form des „Peer grading“.

Typischer Ablauf

[Bearbeiten | Quelltext bearbeiten]

Ingo Kollar & Frank Fischer (2010) beschreiben das klassische Peer-Feedback Verfahren folgendermaßen: ein Peer erstellt ein Produkt. Anschließend meldet ein oder mehrere Peer-Assessoren Feedback zurück. Der Ersteller des Produktes muss dann aus dem Feedback sinnvolle Handlungsoptionen ableiten und das Produkt überarbeiten[7]. Dies ist im Allgemeinen verschieden von der reinen Benotung, dem Peer Grading.

Peer Assessments können stark variieren, je nach Art der Umsetzung. K. Topping erstellte hierzu 1998 eine Typologie/Liste von 17 Dimensionen anhand derer Peer Assessments variieren können[8]:

  1. Themenfeld
  2. Das Ziel der Aktivität (Pädagogisch oder ökonomisch, beispielsweise Zeitaufwand für Lehrer)
  3. Der Fokus (Summative oder formative Evaluation)
  4. Das bewertete Produkt (Text, Präsentation oder andere)
  5. Verhältnis zur Bewertung von Lehrpersonal (Ersatzweise oder ergänzend)
  6. Offizielle Bedeutung (Inwieweit es sich auf eine Note auswirkt)
  7. Richtung der Bewertung (Einseitig, gegenseitig oder wechselseitig)
  8. Privatsphäre (Anonym, teil-anonym oder öffentlich)
  9. Persönlicher Kontakt (Inwieweit haben die Peers Kontakt miteinander oder dem Lehrer?)
  10. Synchronizität (Bezüglich aktuellen Produkten oder verzögert)
  11. Fähigkeit (Bspw. auf welchem Wissensstand sind die Teilnehmer?)
  12. Konstellation der Gutachter (Individuell, Paare oder Gruppen)
  13. Konstellation der Begutachteten (Individuell, Paare oder Gruppen)
  14. Ort (In der Lerngruppe/Klasse/Seminar oder außerhalb)
  15. Zeit (Unterrichtszeit, Freizeit oder informelle Zeit)
  16. Anforderungen (Obligatorisch oder freiwillig für Gutachter und Begutachtete)
  17. Belohnung (Kreditpunkte oder andere Belohnungen).

Theoretischer Ansatz

[Bearbeiten | Quelltext bearbeiten]

Häufig wird die Lerntheorie des Konstruktivismus als Grundlage für das Lernen in Peer-Feedback Verfahren herangezogen[8]. Nach dem konstruktivistischen Ansatz wird Wissen, in Form von Schemata, auf Basis von sozialem Austausch individuell konstruiert[9]. Der Peer-Assessor reagiert auf das Produkt des Begutachteten und wendet dabei aktiv Kriterien auf dieses an. Dabei konstruiert er beispielsweise neue Schemata für Fehler oder verbessert vorhandene Schemata über die Kriterien. Der Begutachtete reagiert dann wiederum auf das Feedback des Assessors. Dieses kann Wissenslücken aufzeigen und so die Konstruktion von neuem Wissen begünstigen. Die Produkte des Begutachteten und des Assessors dienen also jeweils als Gerüst (Scaffold), um das Verständnis von Kriterien zu verbessern.

Vorteile, Nachteile und Forschungsergebnisse

[Bearbeiten | Quelltext bearbeiten]

In einer Bewertung der Ergebnisse der Peer-Feedback Verfahren-Forschung der Jahre 1980 bis 1996 und in einer späteren Evaluierung folgerte K. Topping, dass Peer-Feedback Verfahren im Kontext des Erlernens von Schreibfähigkeiten mindestens genauso gute Ergebnisse liefern wie Lehrerfeedback und manchmal sogar bessere[10]. Dies begründet sich auf einer Vielzahl an Vorteilen. Da es meist mehr Lernende als Lehrpersonal gibt, kann zeitnaher und häufiger[5] sowie deutlich mehr Peer-Feedback als Expertenfeedback generiert werden[10]. Mehr bedeutet zwar nicht unbedingt besser, aber Peer-Feedback weist häufiger auf unterschiedliche Probleme hin, als das es zu Überschneidungen kommt[11]. Außerdem ist Peer-Feedback immer individualisiert[10][2]. Gleichzeitig ist es auf das Wissen des Lernenden zugeschnitten, denn Peers können einander auf derselben Ebene Rückmeldung geben, während Expertenfeedback unverständlich sein kann[12]. Außerdem kann die Art des Feedbacks, das ein Lernender erhält, sich je nach Quelle stark unterscheiden. Experten geben hauptsächlich gerichtetes Feedback, während Peers mehr ungerichtetes Feedback geben[13]. Gerichtes Feedback enthält explizite Empfehlungen für Anpassungen, während ungerichtetes Feedback unspezifische Beobachtungen aufzeigt. Ungerichtetes Feedback führt zu komplexen Überarbeitungen, während gerichtetes eher zu oberflächlichen Überarbeitungen führt[12]. Außerdem können Peer Assessments affektive und soziale Vorteile erbringen. Beispielsweise kann sich durch Peer Assessment die Einstellung zur Evaluation des Lernprozesses bei Lernenden positiv verändern und Verbesserungen von Gruppenarbeitsverhalten führen[10].

Die Ressource „Zeit des Lehrers“ kann eingespart werden[14]. Vor allem dann, wenn ausführliche Rückmeldung, beispielsweise zu Hausarbeiten oder Aufsätzen gegeben werden soll. Allerdings darf nicht vernachlässigt werden, dass Peer Assessments auch einen höheren Koordinationsaufwand bedeuten. Außerdem zeigt sich, dass Peer-Assessments effektiver sind, wenn die Peer-Assessoren vor dem Evaluieren Training erhalten[15]. Dieses Training oder diese Entwicklung benötigt wiederum ein Zeitinvest des Experten oder Lehrers. Beim Peer Assessment kann es allerdings aufgrund der Gleichstellung der Peers zu Akzeptanzproblemen bezüglich des Peer-Feedbacks kommen[16]. Denn es bestehen Unsicherheiten von Seiten der Lernenden gegenüber der Qualität von Peer-Feedback und der Kompetenz von Peer-Gutachtern. Dies ist möglicherweise ein Grund, warum, das Geben von Feedback als lernförderlicher angesehen wird, als das Erhalten von Peer-Feedback[17].

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Goldin, I. M., Ashley, K., & Schunn, C. D.: Redesigning Educational Peer Review Interactions Using Computer Tools: An Introduction. Hrsg.: Journal of Writing Research. Band 4, Nr. 2, S. 111–119.
  2. a b K. J. Topping, E. F. Smith, I. Swanson, A. Elliot: Formative Peer Assessment of Academic Writing Between Postgraduate Students. In: Assessment & Evaluation in Higher Education. 25, 2000, S. 149–169, doi:10.1080/713611428.
  3. Falchikov, N.: Product comparisons and process benefits of collaborative self and peer group assessments. Hrsg.: Assessment and Evaluation in Higher Education. Band 11, Nr. 2, 1986, S. 146–166.
  4. Kim, M.: The effects of assessor and assessee’s roles on preservice teachers’ metacognitive awareness, performance, and attitude in a technology-related design task (Doctoral dissertation). Hrsg.: Florida State University. Florida 2005.
  5. a b Falchikov, N., & Goldfinch, J: Student peer assessment in higher education: A meta-analysis comparing peer and teacher marks. Hrsg.: Review of Educational Research. Band 70, Nr. 3, 2000, S. 287–322.
  6. Armstrong, S. L., & Paulson, E. J.: Whither “Peer Review”? Terminology Matters for the Writing Classroom. Hrsg.: Teaching English in the Two-Year College. Band 35, Nr. 4, 2008, S. 398–407.
  7. Kollar, I., & Fischer, F.: Peer assessment as collaborative learning: A cognitive perspective. Hrsg.: Learning and Instruction. Band 20, Nr. 4, 2010, S. 344–348.
  8. a b Topping, K.: Peer Assessment between Students in Colleges and Universities. Hrsg.: Review of Educational Research. Band 63, Nr. 3, 1998, S. 249–276.
  9. Windschitl, M.: Framing Constructivism in Practice as the Negotiation of Dilemmas: An Analysis of the Conceptual, Pedagogical, Cultural, and Political Challenges Facing Teachers. Hrsg.: Review of Educational Research. Band 72, Nr. 2, 2002.
  10. a b c d Topping, K.: Peer Assessment. Hrsg.: Theory Into Practice. Band 48, Nr. 1, 2009, S. 20–27.
  11. Patchan, M. M., Schunn, C. D., & Clark, R. J.: Writing in the natural sciences: Understanding the effects of different types of reviewers on the writing process. Hrsg.: Journal of Writing Research. Band 2, Nr. 3, 2011, S. 365- 393.
  12. a b Cho, K., & MacArthur, C.: Student revision with peer and expert reviewing. Hrsg.: Learning and Instruction. Band 20, Nr. 4, 2010, S. 328–338.
  13. Cho, K., & Schunn, C. D: Scaffolded writing and rewriting in the discipline: A web-based reciprocal peer review system. Hrsg.: Computers & Education. Band 48, Nr. 3, 2007, S. 409–426.
  14. Boud, D.: The role of self-assessment in student grading. Hrsg.: Assessment and Evaluation in Higher Education. Band 14, 1989, S. 20–30.
  15. Sluijsmans, D. M. A., Brand-Gruwel, S. & Van Merriënboer, J. J. G.: Peer Assessment Training in Teacher Education: effects on performance and perceptions. Hrsg.: Assessment & Evaluation in Higher Education. Band 27, Nr. 5, 2002, S. 443–454.
  16. Van Gennip, N. A. E.; Segers, M. S. R., & Tillema, H. H.: Peer assessment as a collaborative learning activity: The role of interpersonal variables and conceptions. Hrsg.: Learning and Instruction. Band 20, Nr. 4, S. 280–290.
  17. z. B. Cho, K., Schunn. C. D., & Charney, D.: Commenting on Writing Typology and Perceived Helpfulness of Comments from Novice Peer Reviewers and Subject Matter Experts. Hrsg.: Written Communication. Band 23, Nr. 3, 2006, S. 260–294.