Kognitive Verzerrung

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Dieser Artikel befasst sich mit kognitiven Verzerrungen im Sinne der allgemeinen Psychologie (cognitive bias). Für kognitive Verzerrungen, die als Symptom von Krankheitsbildern auftreten (cognitive distortion), siehe Kognitive Verzerrung (klinische Psychologie).

Kognitive Verzerrung (im engl. ‚cognitive bias‘ oder ‚cognitive illusions‘) ist ein kognitionspsychologischer Sammelbegriff für systematische fehlerhafte Neigungen beim Wahrnehmen, Erinnern, Denken und Urteilen. Sie bleiben meist unbewusst und basieren auf kognitiven Heuristiken.

Definition und Merkmale[Bearbeiten | Quelltext bearbeiten]

Zur Bestimmung systematischer fehlerhafter kognitiver Verzerrungen ist es zunächst notwendig, prüfbare Regeln zu entwickeln. Diese werden gewöhnlich anhand von normativen Modellen wie der mathematischen Wahrscheinlichkeitsrechnung formuliert. Diese geben dann die „richtigen“ oder „rationalen“ Standards für Denkprozesse und Entscheidungen, die geprüft werden, vor. Systematische, also nicht nur individuelle und zufällige, Abweichungen von diesen Standards gelten dann als irrational oder falsch.

Menschliche Probanden kennen in der Regel weder die Modelle noch die Regeln und treffen ihre Aussagen und Entscheidungen anhand von natürlichen, intuitiven Entscheidungsheuristiken unter unvollständigen Informationen. Diese sind meist effizient und hilfreich und unabhängig von Wunschdenken.[1]

Aus diesem Grund wird der kognitionspsychologischen Forschung in diesem Zusammenhang gelegentlich Einseitigkeit vorgeworfen. Die Frage, ob eine Entscheidung in einem normativen Sinn „richtig“ ist, sei weniger wichtig als die Frage, ob eine Entscheidung in einer bestimmten Situation hilfreich und nützlich ist. Weitere Kritikpunkte am Konzept der kognitiven Verzerrung sind das fehlende übergreifende und detaillierte Modell und eine „Künstlichkeit“ in der Definition von einigen Verzerrungen. Messbare Effekte würden schon bei einer geringen Änderung der Versuchsbedingungen verschwinden.[2]

Liste kognitiver Verzerrungen[Bearbeiten | Quelltext bearbeiten]

Diese Liste ist eine Auswahl bekannter kognitiver Verzerrungen und erhebt keinen Anspruch auf Vollständigkeit:

  • Attributionsfehler, auch correspondence bias: Die Neigung, die Ursache für ein beobachtetes Verhalten zu oft in (feststehenden) „Charaktereigenschaften“ der handelnden Person und zu selten in den (variablen) Merkmalen der jeweiligen Situation zu suchen.
  • Ankerheuristik, auch anchoring bias: Die Tatsache, dass Menschen bei bewusst gewählten Zahlenwerten von momentan vorhandenen Umgebungsinformationen beeinflusst werden, ohne dass ihnen dieser Einfluss bewusst wird.
  • Bestätigungsfehler, auch confirmation bias: Die Neigung, Informationen so auszuwählen und zu interpretieren, dass sie die eigenen Erwartungen erfüllen.
  • Belief-Bias, auch Überzeugungsbias: Die Tendenz zu glaubwürdigen Schlussfolgerungen
  • Bias Blind Spot: Tendenz sich für unbeeinflusst zu halten.
  • Default-Effekt: übermäßige Bevorzugung derjenigen Option, die in Kraft tritt, wenn ein Agent keine aktive Entscheidung trifft.
  • Déformation professionnelle: Neigung, eine berufs- oder fachbedingte Methode oder Perspektive unbewusst über ihren Geltungsbereich hinaus auf andere Themen und Situationen anzuwenden.
  • Dunning-Kruger-Effekt: Tendenz inkompetenter Menschen, das eigene Können zu überschätzen und die Kompetenz anderer zu unterschätzen.
  • Halo-Effekt: Tendenz, von bekannten Eigenschaften einer Person auf unbekannte Eigenschaften zu schließen.
  • Kontrasteffekt: intensivere Wahrnehmung einer Information, welche zusammen mit einer im Kontrast stehenden Information präsentiert wird.
  • Kontrollillusion, auch illusion of control: Die falsche Annahme, zufällige Ereignisse durch eigenes Verhalten kontrollieren zu können.
  • Rückschaufehler, auch hindsight bias: Die verfälschte Erinnerung an eigene Vorhersagen, die bezüglich eines Ereignisses getroffen wurden, nach dem Eintreten des Ereignisses.
  • IKEA-Effekt: Zuwachs an Wertschätzung, der selbst entworfenen oder zumindest selbst zusammengebauten Gegenständen im Vergleich zu fertig gekauften Massenprodukten entgegengebracht wird.
  • Illusorische Korrelation: Die fälschliche Wahrnehmung eines Kausalzusammenhangs zweier Ereignisse.
  • Impact Bias: Die psychischen Auswirkungen eines vorgestellten negativen Ereignisses wie Verlust des Arbeitsplatzes oder Trennung vom Partner werden in Dauer und Tiefe systematisch zu stark erwartet.[3]
  • Recall Bias (Erinnerungsverzerrung): Fehlerquelle vor allem in retrospektiven Studien.
  • Selbstüberschätzung (Vermessenheitsverzerrung): Überschätzung des eigenen Könnens und eigener Kompetenzen
  • Self-Reference-Effekt: schematisierender Effekt des Selbstkonzepts.
  • Scope Insensitivity/Scope neglect: Das Nichtbeachten der (geringen) Größe eines Problems. Z. B. erklären sich Menschen in einer Studie bereit, im Durchschnitt 78 USD für die Rettung von 20.000 Vögeln zu bezahlen. Werden sie hingegen zur Zahlungsbereitschaft zur Rettung von 2.000 Vögeln gefragt, kommt im Durchschnitt beinahe der gleiche Wert heraus.[4]
  • Status Quo Bias: Tendenz, der Bevorzugung des Status quo gegenüber Veränderungen.
  • Selbstwertdienliche Verzerrung und der Lake-Wobegon-Effekt: Der Aufrechterhaltung eines positiven konsistenten Selbstbildes dienen.
  • Die Neigung, situative Hinweisreize zur Kausalattribution von Emotionen heranzuziehen, siehe Zwei-Faktoren-Theorie der Emotion.
  • Gender Bias: Die Neigung, generische als spezifische Maskulina zu lesen bzw. Rollenklischees entsprechende Vermutungen anzustellen (Baggerführer = Mann).
  • Die Neigung, in Datenströmen Muster zu sehen, selbst wenn gar keine da sind, siehe Apophänie, Clustering-Illusion, Pareidolie.
  • Emotionale Beweisführung: Die Neigung, eine empfundene Emotion als Beweis für eine Annahme zu betrachten.
  • Hot-Hand-Phänomen: Eine zufällige Häufung von Erfolgen im Sport und Glücksspiel wird als „einen Lauf haben“ oder als „Glückssträhne“ angesehen.

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Rüdiger F. Pohl: Cognitive Illusions. A Handbook on fallacies and biases in thinking, judgement and memory. Psychology Press, Taylor and Francis Group, Hove, New York, 2004, S. 2–14.
  2. G. Gigerenzer: How to make cognitive illusions disappear: Beyond Heuristics and Biases, in: W. Stroebe, M. Hewstone (Hrsg.): „European review of social psychology“, Wiley, Chichester, UK, Vol. 2, S. 83–105.
  3. D. T. Gilbert, E. C. Pinel, T. D. Wilson, S. J. Blumberg, T. P. Wheatley: Immune neglect: A source of durability bias in affective forecasting. In: Journal of Personality and Social Psychology. Band 75, 1998, S. 617–638. Online-Text (PDF-Datei; 2,5 MB)
  4. Hanemann, W. Michael: Valuing the environment through contingent valuation. The Journal of Economic Perspectives, 1994, 8. Jg., Nr. 4, S. 19–43.

Aufsätze[Bearbeiten | Quelltext bearbeiten]

  • J. St. B. T. Evans: Interpretation and matching bias in a reasoning task. In: Quarterly Journal of Experimental Psychology. Band 24, 1972, S. 193–199.
  • J. St. B. T. Evans, J. L. Barston, P. Pollard: On the conflict between logic and belief in syllogistic reasoning. In: Memory and Cognition. Band 11, 1983, S. 295–306.
  • K. C. Klauer, J. Musch, B. Naumer: On belief bias in syllogistic reasoning. In: Psychological Review. Band 107, 2000, S. 852–884.

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Daniel Kahneman, Paul Slovic, Amos Tversky: Judgment under uncertainty: Heuristics and biases. Cambridge University Press, Cambridge (UK) 1982.
  • Ken Manktelow: Reasoning and Thinking. Psychology Press, Hove (UK) 2000, ISBN 0-86377-709-0.
  • R. F. Pohl: Cognitive Illusions: A Handbook on Fallacies and Biases in Thinking, Judgement and Memory. Psychology Press, Hove (UK) 2004, ISBN 1-84169-351-0.
  • Dietrich Dörner: Die Logik des Misslingens. Strategisches Denken in komplexen Situationen. Rowohlt 1989, ISBN 3-499-19314-0.
  • Hanno Beck: Die Logik des Irrtums. Wie uns das Gehirn täglich ein Schnippchen schlägt. Frankfurter Allgemeine Buch, 2008, ISBN 3-89981-157-7.
  • Dan Ariely: Denken hilft zwar, nützt aber nichts. Warum wir immer wieder unvernünftige Entscheidungen treffen. Droemer HC 2008, ISBN 3-426-27429-9.
  • Rolf Dobelli: Die Kunst des klaren Denkens. 52 Denkfehler, die Sie besser anderen überlassen. Hanser 2011, ISBN 3-446-42682-5.
  • Daniel Kahneman: Schnelles Denken, langsames Denken. Siedler 2012, ISBN 3-88680-886-6.

Weblinks[Bearbeiten | Quelltext bearbeiten]