Confusion of the Inverse

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Ein Beispiel für Confusion of the inverse ist die Einstiegsdrogen-Hypothese: Zwar haben viele Nutzer harter Drogen mit weichen Drogen begonnen, doch gelangen nur relativ wenige Menschen über weiche Drogen zu harten Drogen. Bei der Einstiegsdrogen-Hypothese wird diese Asymmetrie ignoriert.

Confusion of the inverse (engl. für „Verwechslung der Umkehrung“; auch: conditional probability fallacy [„Fehlschluss der bedingten Wahrscheinlichkeit“], inverse fallacy [„Umkehrungsfehlschluss“], fallacy of the transposed probability [„Fehlschluss der transponierten Wahrscheinlichkeit“], prosecutor’s fallacy [„Trugschluss des Anklägers“]) ist ein logischer Fehlschluss, der darin besteht, dass eine bedingte Wahrscheinlichkeit mit ihrer Umkehrung gleichgesetzt wird.[1]

Eine bedingte Wahrscheinlichkeit (z. B. die Wahrscheinlichkeit, dass ein Professor in Deutschland eine Frau ist: 25 %) ist mit ihrer Umkehrung (der Wahrscheinlichkeit, dass eine Frau in Deutschland Professor ist: 0,03 %) keineswegs identisch. Bei Confusion of the inverse wird dieser Unterschied aber nicht verstanden und der eine Wert fehlerhaft für den anderen eingesetzt.

Den Begriff Confusion of the inverse hat der amerikanische Psychologe Robyn Dawes geprägt.[2]

Allgemeine Beispiele

[Bearbeiten | Quelltext bearbeiten]

„Wie in einer Studie aufgewiesen wurde, hat fast jeder zweite Terrorist eine technische Ausbildung absolviert.[3] Eltern, die ihrem Kind eine technische Ausbildung ermöglichen, sollten sich darauf gefasst machen, dass das Kind eine Terroristenlaufbahn einschlägt.“

„Die meisten Unfälle passieren zu Hause. Um sicher zu sein, sollte man sich möglichst wenig zu Hause aufhalten.“

„Die meisten Drogensüchtigen haben mit der Einstiegsdroge Haschisch angefangen. Wer Haschisch raucht, geht ein hohes Risiko ein, später von härteren Drogen abhängig zu werden.“

Beispiele aus der Medizin

[Bearbeiten | Quelltext bearbeiten]

Die Confusion of the inverse ist bei Studierenden und Akademikern weithin verbreitet und führt insbesondere bei der Deutung medizinischer Testergebnisse zu gravierenden und teilweise folgenreichen Verzerrungen.

Relative
Größe
Bösartig Gutartig Summe
Test
positiv
0,8 %
(korrekt positiv)
9,9 %
(falsch positiv)
10,7 %
Test
negativ
0,2 %
(falsch negativ)
89,1 %
(korrekt negativ)
89,3 %
Summe 1 % 99 % 100 %

Zu den heute bekanntesten Beispielen zählt eines, auf das 1982 David M. Eddy aufmerksam gemacht hat. Eddy hatte 100 Ärzte aufgefordert, sich zu folgendem Fall zu äußern: Eine Patientin hat einen Knoten in der Brust. Eine Mammographie liefert den Befund, dass der Tumor bösartig sei. Der Arzt weiß Folgendes:

  • Nur 1 % aller Brusttumoren sind bösartig.
  • Mammographien erkennen einen bösartigen Tumor in 80 % der Fälle als solchen (während sie ihn in 20 % der Fälle falsch als gutartig einstufen).
  • Mammographien erkennen einen gutartigen Tumor in 90 % der Fälle als solchen (während sie ihn in 10 % der Fälle falsch als bösartig einstufen).[4]

Die meisten der von Eddy befragten Ärzte bezifferten die Wahrscheinlichkeit, dass bei der Patientin ein bösartiger Tumor vorliege, auf 75 % (0,75). Korrekt, nach dem Satz von Bayes berechnet beträgt das Risiko jedoch nur 7,5 % (0,075).[4]

Bereits 1979 hatten zwei Forscher aus Massachusetts ähnliche systematische Missinterpretationen im Vorfeld ärztlicher Verordnungen von Amniozentesen bei Schwangeren aufgewiesen.[5]

  • Pavel Kalinowski, Fiona Fidler, Geoff Cumming: Overcoming the Inverse Probability Fallacy: A Comparison of Two Teaching Interventions. In: Methodology European Journal of Research Methods for the Behavioral and Social Sciences. Band 4, Nr. 4, Januar 2008, S. 152–158.
  1. Christopher J. Wild, Jessica M. Utts, Nicholas J. Horton: What Is Statistics? In: Dani Ben-Zvi, Katie Makar, Joan Garfield (Hrsg.): International Handbook of Research in Statistics Education. Springer, ISBN 978-3-319-66193-3, S. 5–36, hier: S. 24 (eingeschränkte Vorschau in der Google-Buchsuche).
  2. Scott Plous: The Psychology of Judgment and Decision Making. McGraw-Hill, 1993, ISBN 978-0-07-050477-6, S. 132.
  3. Diego Gambetta, Steffen Hertog: Engineers of Jihad : the curious connection between violent extremism and education. Princeton University Press, Princeton, Oxford 2016, ISBN 978-0-691-14517-4.
  4. a b David M. Eddy: Probabilistic reasoning in clinical medicine: Problems and opportunity. In: Daniel Kahneman, Paul Slovic, AAmos Tversky (Hrsg.): Judgment under Uncertainty: Heuristic and Biases. Cambridge University Press, Cambridge 1982, ISBN 978-0-521-28414-1, S. 249–267. Zitiert nach: Jessica Utts, Robert Heckard: Statistical Ideas and Methods. Thomson, Belmont, CA 2006, ISBN 0-534-40284-4, S. 234 (eingeschränkte Vorschau in der Google-Buchsuche).
  5. Susan P. Pauker, Stephen G. Pauker: The amniocentesis decision: an explicit guide for parents. In: Birth Defects Original Article Series. Band 15, 5C, 1979, S. 289–324, PMID 160805.