Beharren auf Überzeugungen

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Beharren auf Überzeugungen,[1] auch als konzeptioneller Konservatismus[2] bezeichnet (englisch belief perseverance) bedeutet, konfrontiert mit neuen Informationen, die einer Überzeugung widersprechen, diese trotzdem zu bewahren.[3] Die anfängliche Hypothese, auf der beharrt wird, wird als hartnäckige erste Hypothese bezeichnet.

Da Rationalität konzeptionelle Flexibilität mit sich bringt,[4][5] ist Beharren auf Überzeugungen mit der Ansicht vereinbar, dass Menschen manchmal irrational handeln. Philosoph F. C. S. Schiller ist der Ansicht, dass das Beharren auf Überzeugungen es verdient, „zu den grundlegenden ‚Naturgesetzen‘ gezählt zu werden.“[6]

Empirische Belege aus der experimentellen Psychologie[Bearbeiten | Quelltext bearbeiten]

Laut Lee Ross und Craig A. Anderson „sind Überzeugungen bemerkenswert widerstandsfähig im Angesicht empirischer Befunde, die logisch verheerend erscheinen.“[7] Die folgenden Experimente lassen sich mit Hilfe des Konzepts des Beharren auf Überzeugungen verstehen oder neu interpretieren.

Die erste Studie zum Beharren auf Überzeugungen wurde von Festinger, Riecken und Schachter durchgeführt. Diese Psychologen verbrachten Zeit mit einem Kult, dessen Mitglieder davon überzeugt waren, dass die Welt am 21. Dezember 1954 enden würde. Nachdem die Vorhersage nicht eingetroffen war, klammerten sich die meisten Anhänger immer noch an ihren Glauben.[8]

Bei der Frage nach einer Neubewertung von Wahrscheinlichkeitsschätzungen angesichts aktueller Informationen zeigten die Probanden eine deutliche Tendenz, neue Erkenntnisse nicht ausreichend zu berücksichtigen.[9]

In einer anderen Studie erhielten mathematisch kompetente Jugendliche und Erwachsene sieben arithmetische Probleme und wurden zunächst nach ungefähren Antworten mittels Schätzung gefragt. Dann sollten sie mit Hilfe eines Taschenrechners die genauen Ergebnisse ermitteln, der allerdings so manipuliert war, dass er zunehmend fehlerhafte Resultate auswarf (z. B. 252 × 1,2 = 452,4 – obwohl das richtige Ergebnis tatsächlich 302,4 ist). Beim Reflektieren über ihre Fähigkeiten und Techniken beim Schätzen absolvierte etwa die Hälfte der Probanden alle sieben Aufgaben, ohne ihre Überzeugung anzuzweifeln, dass Taschenrechner unfehlbar seien.[10]

Lee Ross und Craig A. Anderson führten einige Probanden zu der falschen Überzeugung, dass eine positive Korrelation zwischen der von einem Feuerwehrmann erklärten Präferenz für das Eingehen von Risiken und seiner beruflichen Leistung besteht. Anderen Probanden wurde gesagt, dass die Korrelation negativ sei. Die Probanden wurden anschließend im Rahmen einer Nachbesprechung ausführlich aufgeklärt und erhielten die Information, dass keinerlei Korrelation zwischen Risikobereitschaft und Leistung besteht. Die Autoren fanden heraus, dass Interviews im Anschluss an die Nachbesprechung auf ein erhebliches Maß an Beharren auf Überzeugungen aufzeigten.[11]

In einer weiteren Studie[12] verbrachten die Probanden etwa vier Stunden damit, die Anweisungen einer praktischen Anleitung zu befolgen. An einem bestimmten Punkt führte das Handbuch eine Formel ein, die sie zu der Annahme brachte, dass das Volumen von Kugeln um 50 % größer ist als in Wirklichkeit. Die Probanden erhielten dann tatsächliche Kugeln und wurden aufgefordert, ihren Inhalt zu bestimmen. Zuerst verwendeten sie die Formel, um die Kugel dann später mit Wasser zu füllen, das Wasser in eine Kiste umzufüllen und mit deren Hilfe das Volumen des Wassers zu messen.

Im letzten Experiment dieser Serie waren alle 19 Probanden Inhaber von Doktortiteln naturwissenschaftliche Fächer und als Forscher oder Professoren an zwei großen Universitäten beschäftigt. Auch sie führten den Abgleich zwischen den beiden Volumenmessungen ein zweites Mal mit einer größeren Kugel durch. Alle Probanden außer einem hielten trotz ihrer empirischen Beobachtungen an der falschen Formel fest:

„Zusammen genommen führen derartige Experimente zu einer überraschenden Schlussfolgerung: ‚Selbst wenn wir uns mit ideologisch neutralen Vorstellungen von Realität beschäftigen, neigen wir – obwohl diese Vorstellungen erst kürzlich erworben, aus unbekannten Quellen überliefert oder auch wenn sie aus falschen Gründen assimiliert wurden und ihre Ablehnung offenbar wenig Risiken oder Kosten mit sich bringt – zumindest über längere Zeit dazu, solche Vorstellungen auf verbaler Ebene nicht anzuzweifeln und sie in der Praxis nicht abzulegen, auch wenn ihnen spätere Ereignisse klar widersprechen.‘“[2]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Ulrich Frey: Der blinde Fleck: Kognitive Fehler in der Wissenschaft und ihre evolutionsbiologischen Grundlagen. Walter de Gruyter, 2013. S. 99
  2. a b Moti Nissani: A cognitive reinterpretation of Stanley Milgram's observations on obedience to authority. In: American Psychologist. Band 45, Nr. 12, 1990, ISSN 1935-990X, S. 1384–1385, doi:10.1037/0003-066x.45.12.1384.
  3. Roy F. Baumeister, Kathleen D. Vohs (Hrsg.): Encyclopedia of social psychology. Sage Publications, Thousand Oaks, Calif. 2007, ISBN 978-1-4522-6568-1, S. 109–110 (books.google.de).
  4. J. F. Voss, et al. (Hrsg.): Informal Reasoning and Education. Erlbaum, Hillsdale 1991, S. 172.
  5. Leo H. T. West, A. Leon Pines: Cognitive structure and conceptual change. Academic Press, Orlando, Fl. 1985, ISBN 978-0-12-744590-8, S. 211.
  6. William Ian Beardmore Beveridge: The art of scientific investigation. Norton, New York 1957, S. 110 (Textarchiv – Internet Archive).
  7. Daniel Kahneman: Judgment under Uncertainty: Heuristics and Biases. Cambridge University Press, Cambridge 1982, S. 144 (books.google.de – Leseprobe).
  8. Leon Festinger, et al.: Festinger-Riecken-Schachter-When-Prophecy-Fails. University of Minnesota Press, Minneapolis 1956 (archive.org).
  9. B. Kleinmuntz (Hrsg.): Formal Representation of Human Judgment. Wiley, New York 1968, S. 17–52.
  10. Lois Timnick: Electronic Bullies. In: Psychology Today. Band 16, 1982, S. 10–15.
  11. C. A. Anderson: Abstract and Concrete Data in the Conservatism of Social Theories: When Weak Data Lead to Unshakeable Beliefs. In: Journal of Experimental Social Psychology. Band 19, Nr. 2, 1983, S. 93–108, doi:10.1016/0022-1031(83)90031-8.
  12. Moti Nissani, Donna Marie Hoefler-Nissani: Experimental Studies of Belief Dependence of Observations and of Resistance to Conceptual Change. In: Cognition and Instruction. Band 9, Nr. 2, 1992, ISSN 0737-0008, S. 97–111, doi:10.1207/s1532690xci0902_1.