Benutzer:Edward Steintain/Artikelentwurf

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Dieser Artikelentwurf lehnte sich einst in großen Teilen an das englische Vorbild Swiss cheese model an.

Die direkte Gegenüberstellung des englischen Original-Artikels von en.wikipedia.org und dem ehemaligen deutschen Artikelentwurf für de.wikipedia.org ist hier.

Die Bearbeitung des Entwurfs von Schweizer-Käse-Modell wurde fortgesetzt – mit einem sehr dankbaren Abschied vom englischen Vorbild.


Schweizer-Käse-Modell

Das Schweizer-Käse-Modell (englisch Swiss cheese model) ist eine bildhafte Darstellung von latentem und aktivem menschlichen Versagen als Beitrag zum Zusammenbruch von komplexen Systemen und beschreibt die Verkettung von Unfallursachen.[1] Das Modell wurde ursprünglich vom englischen Psychologen James Reason von der Universität Manchester dargelegt[2] und hat seitdem eine breite Akzeptanz gefunden.

Das Schweizer-Käse-Modell vergleicht Sicherheitsebenen mit hintereinander liegenden Käsescheiben. Die Löcher im Käse wie etwa beim Emmentaler sind ein Bild für die Unvollkommenheit von Sicherheits- oder Schutzmaßnahmen in einem Sicherheitssystem. Die Käselöcher als Schwachstellen können unerwartet ihre Größe und Lage verändern. Bei einer ungünstigen Kombination vieler ursächlicher Faktoren entwickeln sich einzelne Fehler zu Schäden, Unfällen oder katastrophalen Folgen. Im Modell liegen dann die Käselöcher auf einer Linie und es entsteht die „Gelegenheit zur einer Flugbahn“, so Reason, die alle Sicherheitsbarrieren überwindet.[1][2] Anstelle eines Modells kann der Schweizer Käse auch als nützliche Metapher aufgefasst werden.[3]

Latente und aktive Fehler[Bearbeiten | Quelltext bearbeiten]

Reason untersuchte die Unfallberichte von Katastrophen wie Bhopal, Challenger, King’s Cross, Tschernobyl und Zeebrugge und schlug eine Unterscheidung zwischen aktivem und latentem Versagen vor;[1] später spricht er von Personen- und Systemfehlern.[2] Reason vertritt die Hypothese, dass die meisten Unfälle auf einen oder mehrere von vier Fehlerbereichen zurückgeführt werden können: organisatorische Einflüsse, Aufsicht, Vorbedingungen und konkrete Handlungen. Latente Fehler des Systems seien lange vor einem widrigen Ereignis auf der Führungs- und Organisationsebene angelegt worden, bevor sie zusammen mit ungünstigen Umständen und durch unsichere Handlungen einzelner Personen (aktives Versagen) zum Unfall führten.

Anwendung[Bearbeiten | Quelltext bearbeiten]

Das Schweizer-Käse-Modell für Unfallursachen wird bei der Risikoanalyse und dem Risikomanagement eingesetzt. Es ist Ausgangspunkt zur Planung von Sicherheit u.a. im Ingenieur-[3] und Gesundheitswesen,[4] Schienenverkehr[5] und Luftfahrt.[6] Für Systemsicherheit wird es in der Arbeits- und Organisationspsychologie angewandt.[7]

Im täglichen Leben ereignen sich Fehler, die im Modell ein Käseloch passieren, aber bei einem funktionierenden System von der nächsten Käsescheibe als Sicherheitsbarriere gestoppt werden.

Auf der Grundlage des Scheizer-Käse-Modells entstanden Critical Incident Reporting Systeme (deutsch Berichtssysteme über kritische Vorkommnisse) zur Meldung von kritischen Ereignissen (englisch critical incident) und Beinahvorfällen (englisch near miss).

Frosch [8] beschrieb Reason´s-Modell mit mathematischen Begriffen als ein Modell in der Perkolationstheorie, die er als Bethe-Gitter analysierte.

Fehler: Person oder System[Bearbeiten | Quelltext bearbeiten]

Bei einem widrigen Ereignis werden Beschuldigungen zumeist gegen die Akteure an „vorderster Front“ (englisch front line)) erhoben.[1] Die Betrachtung eines Schadens oder Unglücks kann jedoch nach Reason auf zweierlei Weise erfolgen: Personen- oder Systemfehler.[2]

Unsicherheit keimt aus den Reihen der Leitung oder Aufsicht, wenn zum Beispiel unerfahrene Piloten für einen Nachtflug in bekanntermaßen schlechte Wetterbedingungen als Besatzung zusammengestellt werden. Organisatorische Einflüsse äußern sich in solchen Fällen durch Ausgabenkürzungen bei der Pilotenausbildung in Zeiten knapper Kassen.[9]

Dasselbe Grundgerüst wird auch im Gesundheitswesen angewandt. Durch einen Tippfehler auf dem Rezept verordnet ein Arzt eine gesundheitsschädliche Dosis.[4] Das kann als Flüchtigkeitsfehler des Arztes angesehen werden, wie er etwa unter Zeitmangel entsteht. Mehr als ein Viertel ihrer Arbeitszeit verwenden deutsche Ärzte für die Bürokratie im Gesundheitswesen.[10]

Einzelheiten des aktiven Versagens sind oft nur schwer vorherzusehen. Es können jedoch latente Vorbedingungen identifiziert werden, bevor ein widriges Ereignis eintritt, um so "angesichts grundsätzlich bestehender personeller und operativer Risiken Systeme robust zu gestalten" – also nicht vorrangig Fehlervermeidung, sondern Folgenabwehr als Systemansatz.[2]

Theorien und Modelle der Unfallursachen[Bearbeiten | Quelltext bearbeiten]

Im Verständnis von Unfallursachen grenzt sich Reason vom jahrelang angewandten Personenansatz ab. Bei Theorien mit einem Personenansatz[11] werden vorwiegend die unsicheren Handlungen oder Unterlassungen von Personen betrachtet – etwa bedingt durch „Vergesslichkeit, Unaufmerksamkeit, schlechte Motivation, Nachlässigkeit, Fahrlässigkeit und Leichtsinn“. Menschliche Fehler werden als moralisches Problem eingestuft: „Schlechten Menschen passieren schlechte Dinge“,[2] von Psychologen als just-world fallacy (deutsch Trugschluss einer gerechten Welt) bezeichnet.[12]

Die Theorie über „Symptome versus Ursachen“ schlägt vor, statt das Augenmerk besonders auf die offensichtlichen, zum Unfall führenden Fehler zu richten, müssten seine Gründe an der Wurzel untersucht werden; denn unsichere Handlungen und unsichere Bedingungen seien lediglich Symptome. Symptome versus Ursachen wird eher als eine Ermahnung statt als Theorie bei der Untersuchung von Unfallursachen betrachtet.[11]

Als erstes Modell der Unfallverursachung wurde das Domino-Modell von Herbert William Heinrich (1931) beschrieben.[13] Dabei wird der Unfall mit einer Reihe von Dominosteinen verglichen. Sobald ein Stein fällt, wird er alle anderen umwerfen. Es stellt eine vollständige Abfolge von Faktoren dar, wobei der letzte Stein dem Unfall selbst entspricht. Damit wird ein einfaches Ursache/Wirkungsprinzip beschrieben. Das Modell sollte nicht mit dem Dominoeffekt verwechselt werden.[14]

Neben dem Domino- und Schweizer-Käse-Modell fanden andere Modelle wenig Beachtung.[15] Kritik am Schweizer-Käse-Modell ist selten.[16]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. a b c d James Reason: The Contribution of Latent Human Failures to the Breakdown of Complex Systems. In: Philosophical Transactions of the Royal Society of London. Series B, Biological Sciences. 327. Jahrgang, Nr. 1241, 12. April 1990, S. 475–484, doi:10.1098/rstb.1990.0090. (online lesen: JSTOR)
  2. a b c d e f James Reason: Human error: models and management. In: British Medical Journal. 320. Jahrgang, Nr. 7237, 18. März 2000, S. 768–770, doi:10.1136/bmj.320.7237.768, PMID 10720363, PMC 1117770 (freier Volltext).
  3. a b Erik Hollnagel,David D. Woods,Nancy Leveson: Resilience Engineering: Concepts and Precepts. Ashgate Publishing Company, Burlington, 2006, ISBN 978-0-7546-4641-9.
  4. a b Ein Tippfehler und die Folgen. (PDF; 72 kB) In: Rheinisches Ärzteblatt. Ärztekammer Nordrhein, September 2013, S. 16, abgerufen am 18. November 2013: „Zitat: Am Anfang steht der Tippfehler: Statt „5 x 1 Tbl.“ eines Arzneimittels täglich werden fälschlich „3 x 5 Tbl.“ auf dem Rezept vermerkt.“
  5. Hannes Meuli: Sicherheit ist Chefsache. (PDF, 1419 kb) In: Swiss Traffic 42. Bundesamt für Verkehr (BAV), CH-Bern, April 2007, S. 7, abgerufen am 8. Dezember 2013 (deutsch).
  6. Guidelines for Aviation English Training Programmes. (PDF, 638 kB) Cir 323. ICAO, 2009, S. 35, abgerufen am 7. Dezember 2013 (englisch).
  7. Friedemann W. Nerdinger, Gerhard Blickle, Niclas Schaper: Arbeits- und Organisationspsychologie. Kap. 27: Psychologie der Arbeitssicherheit. Springer Berlin Heidelberg, 2008, S. 501f, abgerufen am 6. Dezember 2013.
  8. Robert A. Frosch: Seeds of Disaster, Roots of Response: How Private Action Can Reduce Public Vulnerability. Hrsg.: Philip E Auerswald, Lewis M Branscomb, Todd M La Porte, and Erwann Michel-Kerjan. Cambridge University Press, 2006, ISBN 0-521-85796-1, Notes toward a theory of the management of vulnerability, S. 88.
  9. Douglas A. Wiegmann and Scott A. Shappell: A Human Error Approach to Aviation Accident Analysis: The Human Factors Analysis and Classification System. Ashgate Publishing, Ltd., 2003, ISBN 0-7546-1873-0, S. 48–49 (englisch).
  10. Jens Flintrop, Heike Korzilius,: Bürokratie in Praxen und Krankenhäusern: Vom Versuch, den Alltag in Ziffern zu pressen. (PDF, 371 kB) In: Deutsches Ärzteblatt Jg. 109, Heft 13. BÄK und KBV, 30. März 2012, S. A-634 / B-550 / C-546, abgerufen am 18. November 2013: „Zitat: Nach einer aktuellen Erhebung der KBV verbringt ein niedergelassener Arzt durchschnittlich 26 Prozent seiner Arbeitszeit mit Bürokratie.“
  11. a b Abdul Raouf: Theory of accident causes. In: Jeanne Mager Stellman (Hrsg): Encyclopaedia of occupational health and safety, 4th edition, International Labour Office, Genf 1998, Part VIII. Accident prevention. S. 56.6, ISBN 92-2-109203-8
  12. MJ Lerner: The desire for justice and reactions to victims. In: McCauley J, Berkowitz L. (Hrsg.): Altruism and helping behavior. Academic Press, New York, 1970; zitiert nach James Reason: Human error: models and management. In: British Medical Journal. 320, Nr. 7237, 18. März 2000, S. 768–770
  13. Herbert William Heinrich: Industrial accident prevention: a scientific apporach. Hrsg.: McGraw-Hill, New York. 1931 (H. W. Heinrich, D. Petersen & N. Roos, Industrial accident prevention (5th Ed). McGraw-Hill: New York, 1980).
  14. Thierry Meyer, Genserik L. L. Reniers: Engineering Risk Management. Hrsg.: Walter de Gruyter & Co, Berlin. 2013, ISBN 3-11-028515-0.
  15. Jop Groeneweg: Hazard analysis: the accident causation model. In: Jeanne Mager Stellman (Hrsg): Encyclopaedia of occupational health and safety, 4th edition, International Labour Office, Genf 1998, Part VIII. Accidents and safety management. S. 57.6–57.12, ISBN 92-2-109203-8
  16. Revisiting the « SWISS CHEESE » Model of Accidents. (PDF (533 kB)) In: EEC Note No. 13/06. European Organisation for the Safety of Air Navigation (Eurocontrol), Oktober 2006, abgerufen am 21. November 2013 (englisch).


Kategorie:Fehler Kategorie:Gesundheitssystem Kategorie:Ingenieurwissenschaft Kategorie:Risikomanagement Kategorie:Luftsicherheit Kategorie:Patientensicherheit Kategorie:Wissenschaftstheorie Kategorie:Modellierung und Simulation Kategorie:Medizinische Qualitätssicherung