Menschlicher Fehler

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
In diesem Artikel oder Abschnitt fehlen folgende wichtige Informationen: Abgrenzung zu Human factor, Trennung Maschinen-/Anlagenbediener und persönlicher Lebenskreis/Fehlverhalten zwischen Menschen/Kommunikation

Du kannst Wikipedia helfen, indem du sie recherchierst und einfügst, aber kopiere bitte keine fremden Texte in diesen Artikel.

Dieser Artikel oder nachfolgende Abschnitt ist nicht hinreichend mit Belegen (beispielsweise Einzelnachweisen) ausgestattet. Die fraglichen Angaben werden daher möglicherweise demnächst entfernt. Bitte hilf der Wikipedia, indem du die Angaben recherchierst und gute Belege einfügst. Näheres ist eventuell auf der Diskussionsseite oder in der Versionsgeschichte angegeben. Bitte entferne zuletzt diese Warnmarkierung.
Das ICE-Unglück von Eschede (1998) gründete auf Wartungsversäumnissen

Als menschlichen Fehler bezeichnet man Fehler, die ein Mensch durch sein Handeln (Fehlbedienung) oder durch seinen körperlich-geistigen Zustand zu verantworten hat. Fehlverhalten kann sowohl wissentlich als auch unwissentlich begangen werden.

Im Verlauf der Forschung hat sich die Definition gewandelt:

  • Alte Sichtweise: Menschliche Fehler sind die Ursache eines Unfalls. Um Versagen zu erklären, muss man Fehler nachweisen. Man muss herausfinden, in welchen Situationen Menschen unzutreffende Beurteilungen, falsche Entscheidungen und schlechte Einschätzungen treffen.
  • Neue Sichtweise: Menschliche Fehler sind Symptome von tieferliegenden Fehlern im System. Um Versagen zu erklären, sollte man nicht nur danach suchen, wo Menschen Fehler gemacht haben. Man muss auch danach suchen, warum die Einschätzungen und Handlungen von Menschen in der gegebenen Situation Sinn zu ergeben schienen.

Das Gegenstück zu menschlichen Fehlern ist der technische Defekt.

Vorkommen[Bearbeiten]

Menschliche Fehler passieren in allen Lebensbereichen, Situationen und in jedem Personenkreis.

Besonders folgenreich für Andere sind Fehler bei Maschinenführern, Anlagenbedienern oder ähnliches (z. B. Kraftwerke, Fahrzeuge, Computersysteme und medizinisches Personal); hier hat der sogenannte Human Factor eine große Bedeutung.

Ursachen[Bearbeiten]

Menschliche Fehler haben oft folgende Ursachen:

Psychisch[Bearbeiten]

Der Tanker Exxon Valdez (Schiffskatastrophe mit Ölpest 1989)

Körperlich[Bearbeiten]

Falsche Organisation von Lernprozessen[Bearbeiten]

Nach Levinthal und March[1] stehen Organisationen vor dem Dilemma, neue hochwertige Wissensquellen erschließen zu müssen, ohne das bestehende Wissen der Mitarbeiter zu vernachlässigen. Dieses Problem lösen Organisationen durch (Über-)Spezialisierung oder (Über-)Simplifizierung der Lernprozesse. Insgesamt ergibt sich dadurch ein Bias zugunsten der Ausbeutung bestehender Wissensressourcen und vorhandener Erfahrungen, der sich als dreifache organisatorische Kurzsichtigkeit (Myopia) beschreiben lässt, und zwar im Hinblick auf Vorgänge in entfernten Räumen, weit entfernten Zeiten (sowohl Vergangenheit als auch Zukunft) und bereits gemachte Fehler. D.h. Organisationen erkennen selten das Lernpotenzial, das in Fehlern steckt. Das gilt z.T. auch für die ingenieurpsychologische Fehlerforschung.[2]

Fehlerketten[Bearbeiten]

Manche Fehlentscheidungen können sich durch Fehlerketten verselbständigen, d. h. Fehler – auch von technischer Seite – bedingen einander (Domino-Effekt), wie z. B. bei der Katastrophe von Tschernobyl.

Eisenbahnunfall am Bahnhof Montparnasse (1895) aufgrund Fehlbedienung

Auswirkungen[Bearbeiten]

Viele Unglücksfälle sind auf menschliches Fehlverhalten zurückzuführen, zum Beispiel bedeutende Katastrophen der Seefahrt wie der Untergang der Titanic und der Unfall der Exxon Valdez vor Alaska. Menschliche Fehler haben fast immer Auswirkungen sowohl im Innen- als auch im Außenverhältnis.

Innenverhältnis[Bearbeiten]

Die Auswirkungen im Innenverhältnis umfassen unter anderem negative Emotionen, Vorwürfe, „schlechtes Gewissen“, Traumata, Verzweiflung und im Extremfall Suizid.

Außenverhältnis[Bearbeiten]

Die Auswirkungen im Außenverhältnis können unter anderem sein: Ein Unfall oder eine Katastrophe, Schadenseintritte, Umweltverschmutzung, Schuld, Strafe, Kündigung, Trennung von Partnern, Öffentlichkeit und im Extremfall Menschenleben.

Auswertung[Bearbeiten]

Viele verhängnisvolle menschliche Fehler werden ausgewertet, damit sie sich durch Vorkehrungen in der Zukunft nicht wieder ereignen. Dies kann durch Fortbildung des Adressatenkreises, Modifikationen von Vorgaben bzw. technischer Abläufe oder Konstruktionen, durch Neufassung von Vorgaben sowie durch Innovationen in der Technik erreicht werden.

Rechtsfolgen[Bearbeiten]

Zur Vermeidung von menschlichen Fehlern existieren sehr häufig Kontrollinstanzen und Arbeitsanweisungen, z. B. Vorschriften des Staates, der Verbände, der Berufsgenossenschaften oder der Unternehmen.

Verantwortliche können je nach Schwere der Schuld und Vorwerfbarkeit einer Vielzahl von Rechtsfolgen ausgesetzt werden, z. B. zivilrechtlich und nach Sanktionsnormen. In schwerwiegenden Fällen kann durch ein Strafgericht auch ein Berufsverbot als Nebenstrafe zum Tragen kommen.

Zivilrechtlich kommt allgemein das Vertretenmüssen in Betracht. Als Folgen sind finanzielle Forderungen (Regress/Schadenersatz), Abmahnung, Kündigung von Verträgen oder auch Versetzungen denkbar. Dienstrechtlich kommen die Bestimmungen über das Verhalten (z. B. „volle Hingabe“, „Gesetzestreue“) sowie als Auswirkung beispielsweise disziplinarrechtliche Folgen in Betracht.

Im Strafrecht kommt hier die Fahrlässigkeit, ggfs. mit der Sonderform Leichtfertigkeit, zum Tragen. Es kommen insbesondere folgende Sanktionsnormen zur Anwendung: Fahrlässige Körperverletzung, Verkehrsstraftaten (meist Gefährdung des Straßenverkehrs) und fahrlässige Tötung.

Abgrenzung[Bearbeiten]

Der Begriff Menschliches Versagen ist ein häufiges Synonym für menschliche Fehler. Er beinhaltet jedoch eine Vorverurteilung des Menschen als Ursache ohne Berücksichtigung unzureichender Technik. In vielen Fällen hat der Mensch nicht versagt, sondern war auf Grund seiner Fähigkeiten nicht in der Lage, ein von ihm oder von der Technik ausgehendes Problem rechtzeitig zu lösen.

Es gibt außerdem Auswirkungen, die sowohl auf menschliche Fehler als auch auf technische Defekte zurückzuführen sind. Da technische Defekte ihrerseits direkt oder indirekt wieder auf menschliche Fehler zurückführen (Mangelnde Wartung, mangelhafte Qualitätskontrolle, Konstruktionsfehler, ausbleibende Vor- und Nachsorge), sind also genaugenommen mit Ausnahme unvermeidlicher natürlicher Ereignisse alle Unfälle menschliche Fehler.

Ein eigenes Forschungsgebiet ist das Fehlermanagement. Es beschreibt, wie ein Mensch in einem Mensch-Maschine-System mit Fehlern, unabhängig von ihrer Ursache, umgeht. Die Fähigkeit zum Fehlermanagement ist ein wesentlicher Grund, den Menschen mit hoher Verantwortlichkeit im technischen System zu belassen. Gutes Fehlermanagement kann darüber entscheiden, ob ein -menschlicher- Fehler oder -technischer- Defekt zur Katastrophe führt oder nicht.

Literatur[Bearbeiten]

  • James Reason: Menschliches Versagen: psychologische Risikofaktoren und moderne Technologien. Heidelberg: Spektrum, 1994. <EST: Human error, dt.> ISBN 3-86025-098-1.
  • James Reason: Human error. Cambridge: Cambridge University Press 1990. ISBN 0-521-30669-8.
  • Dietrich Dörner: Die Logik des Misslingens - Strategisches Denken in komplexen Situationen. Rowohlt, 1993. ISBN 3-499-19314-0
  • Manfred Osten: Die Kunst, Fehler zu machen. Plädoyer für eine fehlerfreundliche Irrtumsgesellschaft. 106 Seiten, Frankfurt am Main, Suhrkamp, 2006, ISBN 978-3518417447
  • Ulrich Frey: Der blinde Fleck: Kognitive Fehler in der Wissenschaft und ihre evolutionsbiologischen Grundlagen. Heusenstamm, Ontos 2007. ISBN 978-3-938793-51-0
Rechtshinweis Bitte den Hinweis zu Rechtsthemen beachten!

Einzelnachweise[Bearbeiten]

  1. Daniel A. Levinthal, James G. March, The Myopia of Learning, Strategic Management Journal, Volume 14, Special Issue S2, S. 95–112, Februar 1993
  2. Hans-Jürgen Weißbach, Michael Florian, Eva-Maria Illigen u.a., Technikrisiken als Kulturdefizite, Berlin: Sigma 1994, S. 43 ff.