Kognitive Verzerrung

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Dieser Artikel befasst sich mit kognitiven Verzerrungen im Sinne der allgemeinen Psychologie (cognitive bias). Für kognitive Verzerrungen, die als Symptom von Krankheitsbildern auftreten (cognitive distortion), siehe Kognitive Verzerrung (klinische Psychologie).

Kognitive Verzerrung (im engl. cognitive bias oder cognitive illusions) ist ein kognitionspsychologischer Sammelbegriff für systematische fehlerhafte Neigungen beim Wahrnehmen, Erinnern, Denken und Urteilen. Sie bleiben meist unbewusst und basieren auf kognitiven Heuristiken.

Definition und Merkmale[Bearbeiten | Quelltext bearbeiten]

Zur Bestimmung systematischer fehlerhafter kognitiver Verzerrungen ist es zunächst notwendig, prüfbare Regeln zu entwickeln. Diese werden gewöhnlich anhand von normativen Modellen wie der mathematischen Wahrscheinlichkeitsrechnung formuliert. Diese geben dann die „richtigen“ oder „rationalen“ Standards für Denkprozesse und Entscheidungen, die geprüft werden, vor. Systematische, also nicht nur individuelle und zufällige, Abweichungen von diesen Standards gelten dann als irrational oder falsch.

Menschliche Probanden kennen in der Regel weder die Modelle noch die Regeln und treffen ihre Aussagen und Entscheidungen anhand von natürlichen, intuitiven Entscheidungsheuristiken unter unvollständigen Informationen. Diese sind meist effizient und hilfreich und unabhängig von Wunschdenken.[1]

Aus diesem Grund wird der kognitionspsychologischen Forschung in diesem Zusammenhang gelegentlich Einseitigkeit vorgeworfen. Die Frage, ob eine Entscheidung in einem normativen Sinn „richtig“ ist, sei weniger wichtig als die Frage, ob eine Entscheidung in einer bestimmten Situation hilfreich und nützlich ist. Weitere Kritikpunkte am Konzept der kognitiven Verzerrung sind das fehlende übergreifende und detaillierte Modell und eine „Künstlichkeit“ in der Definition von einigen Verzerrungen. Messbare Effekte würden schon bei einer geringen Änderung der Versuchsbedingungen verschwinden.[2]

Liste kognitiver Verzerrungen[Bearbeiten | Quelltext bearbeiten]

Diese Liste ist eine Auswahl bekannter kognitiver Verzerrungen und legt keinen Anspruch auf Vollständigkeit:

  • Attributionsfehler, auch correspondence bias: Die Neigung, die Ursache für ein beobachtetes Verhalten zu oft in (feststehenden) "Charaktereigenschaften" der handelnden Person und zu selten in den (variablen) Merkmalen der jeweiligen Situation zu suchen.
  • Ankerheuristik, auch anchoring bias: Die Tatsache, dass Menschen bei bewusst gewählten Zahlenwerten von momentan vorhandenen Umgebungsinformationen beeinflusst werden, ohne dass ihnen dieser Einfluss bewusst wird.
  • Bestätigungsfehler, auch confirmation bias: Die Neigung, Informationen so auszuwählen und zu interpretieren, dass sie die eigenen Erwartungen erfüllen.
  • Default-Effekt: übermäßige Bevorzugung derjenigen Option, die in Kraft tritt, wenn ein Agent keine aktive Entscheidung trifft.
  • Déformation professionnelle: Neigung, eine berufs- oder fachbedingte Methode oder Perspektive unbewusst über ihren Geltungsbereich hinaus auf andere Themen und Situationen anzuwenden.
  • Dunning-Kruger-Effekt: Tendenz inkompetenter Menschen, das eigene Können zu überschätzen und die Kompetenz anderer zu unterschätzen.
  • Halo-Effekt: Tendenz, von bekannten Eigenschaften einer Person auf unbekannte Eigenschaften zu schließen.
  • Kontrasteffekt: intensivere Wahrnehmung einer Information, welche zusammen mit einer im Kontrast stehenden Information präsentiert wird.
  • Kontrollillusion, auch illusion of control: Die falsche Annahme, zufällige Ereignisse durch eigenes Verhalten kontrollieren zu können.
  • Rückschaufehler, auch hindsight bias: Die verfälschte Erinnerung an eigene Vorhersagen, die bezüglich eines Ereignisses getroffen wurden, nach dem Eintreten des Ereignisses.
  • IKEA-Effekt: Zuwachs an Wertschätzung, der selbst entworfenen oder zumindest selbst zusammengebauten Gegenständen im Vergleich zu fertig gekauften Massenprodukten entgegengebracht wird.
  • Illusorische Korrelation: Die fälschliche Wahrnehmung eines Kausalzusammenhangs zweier Ereignisse.
  • Impact Bias: Die psychischen Auswirkungen eines vorgestellten negativen Ereignisses wie Verlust des Arbeitsplatzes oder Trennung vom Partner werden in Dauer und Tiefe systematisch zu stark erwartet.[3]
  • Recall Bias (Erinnerungsverzerrung): Fehlerquelle vor allem in retrospektiven Studien.
  • Selbstüberschätzung (Vermessenheitsverzerrung): Überschätzung des eigenen Könnens und eigener Kompetenzen
  • Self-Reference-Effekt: schematisierender Effekt des Selbstkonzepts.
  • Scope Insensitivity/Scope neglect: Das Nichtbeachten der (geringen) Größe eines Problems. Z. B. erklären sich Menschen in einer Studie bereit, im Durchschnitt 78 USD für die Rettung von 20.000 Vögeln zu bezahlen. Werden sie hingegen zur Zahlungsbereitschaft zur Rettung von 2.000 Vögeln gefragt, kommt im Durchschnitt beinahe der gleiche Wert heraus.[4]
  • Der Aufrechterhaltung eines positiven konsistenten Selbstbildes dienen die selbstwertdienliche Verzerrung und der Lake-Wobegon-Effekt.
  • Die Neigung, situative Hinweisreize zur Kausalattribution von Emotionen heranzuziehen, siehe Zwei-Faktoren-Theorie der Emotion.
  • Die Neigung, generische als spezifische Maskulina zu lesen bzw. Rollenklischees entsprechende Vermutungen anzustellen (Baggerführer = Mann), siehe Gender Bias.
  • Die Neigung, in Datenströmen Muster zu sehen, selbst wenn gar keine da sind, siehe Apophänie, Clustering-Illusion, Pareidolie.
  • Die Neigung, eine empfundene Emotion als Beweis für eine Annahme zu betrachten, siehe Emotionale Beweisführung.
  • Das Hot-Hand-Phänomen im Sport und Glücksspiel. Eine zufällige Häufung von Erfolgen wird als „einen Lauf haben“ oder als „Glückssträhne“ angesehen.

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Rüdiger F. Pohl, „Cognitive Illusions. A Handbook on fallacies and biases in thinking, judgement and memory“, Psychology Press, Taylor and Francis Group, Hove, New York, 2004, S. 2 – 14
  2. G. Gigerenzer, „How to make cognitive illusions disappear: Beyond 'Heuristics and biases' in W. Stroebe, M. Hewstone (Herausgeber), „European review of social psychology“, Wiley, Chichester, UK, Vol. 2, S. 83-105
  3. D. T. Gilbert, E. C. Pinel, T. D. Wilson, S. J. Blumberg, T. P. Wheatley: Immune neglect: A source of durability bias in affective forecasting. In: Journal of Personality and Social Psychology. Band 75, 1998, S. 617–638. Online-Text (PDF-Datei; 2,5 MB)
  4. Hanemann, W. Michael. Valuing the environment through contingent valuation. The Journal of Economic Perspectives, 1994, 8. Jg., Nr. 4, S. 19–43.

Aufsätze[Bearbeiten | Quelltext bearbeiten]

  • J. St. B. T. Evans: Interpretation and matching bias in a reasoning task. In: Quarterly Journal of Experimental Psychology. Band 24, 1972, S. 193–199.
  • J. St. B. T. Evans, J. L. Barston, P. Pollard: On the conflict between logic and belief in syllogistic reasoning. In: Memory and Cognition. Band 11, 1983, S. 295–306.
  • K. C. Klauer, J. Musch, B. Naumer: On belief bias in syllogistic reasoning. In: Psychological Review. Band 107, 2000, S. 852–884.

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Daniel Kahneman, Paul Slovic, Amos Tversky: Judgment under uncertainty: Heuristics and biases. Cambridge University Press, Cambridge (UK) 1982.
  • Ken Manktelow: Reasoning and Thinking. Psychology Press, Hove (UK) 2000, ISBN 0-86377-709-0.
  • R. F. Pohl: Cognitive Illusions: A Handbook on Fallacies and Biases in Thinking, Judgement and Memory. Psychology Press, Hove (UK) 2004, ISBN 1-84169-351-0.
  • Dietrich Dörner: Die Logik des Misslingens. Strategisches Denken in komplexen Situationen. Rowohlt 1989. ISBN 3499193140
  • Hanno Beck: Die Logik des Irrtums. Wie uns das Gehirn täglich ein Schnippchen schlägt. Frankfurter Allgemeine Buch, 2008. ISBN 3899811577
  • Dan Ariely: Denken hilft zwar, nützt aber nichts. Warum wir immer wieder unvernünftige Entscheidungen treffen. Droemer HC 2008. ISBN 3426274299
  • Rolf Dobelli: Die Kunst des klaren Denkens. 52 Denkfehler, die Sie besser anderen überlassen. Hanser 2011. ISBN 3446426825
  • Daniel Kahneman: Schnelles Denken, langsames Denken. Siedler 2012. ISBN 3886808866

Weblinks[Bearbeiten | Quelltext bearbeiten]