„Ethik der Künstlichen Intelligenz“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
[gesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
Gliederung angelegt
→‎KI-Ethik als angewandte Ethik: Kapitel ausformuliert
Zeile 15: Zeile 15:
== KI-Ethik als angewandte Ethik ==
== KI-Ethik als angewandte Ethik ==
KI-Ethik ist ein junges Teilgebiet der [[Angewandte Ethik|angewandten Ethik]]. Wie in anderen Bereichen der angewandten Ethik lassen sich auch hier zwei unterschiedliche Herangehensweisen unterscheiden: einerseits ein prinzipienethischer Ansatz, der allgemeine Prizipien für die Behandlung praktischer Probleme aufstellt, und andererseits ein partikularistischer Ansatz, der Moralurteile für konkrete Handlungsituationen entwickelt.
KI-Ethik ist ein junges Teilgebiet der [[Angewandte Ethik|angewandten Ethik]]. Wie in anderen Bereichen der angewandten Ethik lassen sich auch hier zwei unterschiedliche Herangehensweisen unterscheiden: einerseits ein prinzipienethischer Ansatz, der allgemeine Prizipien für die Behandlung praktischer Probleme aufstellt, und andererseits ein partikularistischer Ansatz, der Moralurteile für konkrete Handlungsituationen entwickelt.

=== Prinzipienethischer Ansatz ===
Der [[Medizinethik#Die Prinzipienethik von Tom Beauchamp und James Childress|prinzipienethische Ansatz]] ({{enS|principlism}}) wurde in den 1970er Jahren in der [[Medizinethik]] entwickelt<ref>{{Literatur |Autor=[[Tom Beauchamp|Tom Lamar Beauchamp]] und [[James Franklin Childress]] |Titel=Principles of biomedical ethics |Auflage=8 |Verlag=Oxford University Press |Ort=New York, NY |Datum=2019 |ISBN=978-0190640873 |Kommentar=1. Auflage 1979}}</ref> und dient seitdem als Vorbild für die Entwicklung anderer Bereichsethiken, auch der KI-Ethik.<ref name="Hallamaa">{{Internetquelle |autor=Jaana Hallamaa, Taina Kalliokoski |url=https://doi.org/10.3389/fcomp.2022.776837 |titel=AI Ethics as Applied Ethics |datum=2022 |hrsg=University of Helsinki |abruf=2023-06-30 |sprache=en}}</ref>

Bei diesem Ansatz wird ein Satz von Prinzipien bereitgestellt, aus denen sich moralische Urteile für konkrete Handlungssituationen ableiten lassen, daher auch die Bezeichnung ''deduktivistisches Modell''.<ref name="Handbuch">{{Literatur |Autor=Ralf Stoecker, Christian Neuhäuser, Marie-Luise Raters |Titel=Einführung und Überblick |Herausgeber=Christian Neuhäuser, Marie-Luise Raters, Ralf Stoecker |Sammelwerk=Handbuch Angewandte Ethik |Auflage=2 |Verlag=J.B. Metzler |Ort=Stuttgart |Datum=2023 |ISBN=978-3-476-05868-3 |Seiten=33–37}}</ref>
Die Prinzipien werden {{"|dadurch begründet, dass sie eine Art Schnittmenge verschiedener normativer Konzeptionen darstellen|ref=<ref name="Düwell">{{Literatur |Autor=Marcus Düwell |Titel=Prinzipienethik |Herausgeber=Christian Neuhäuser, Marie-Luise Raters, Ralf Stoecker |Sammelwerk=Handbuch Angewandte Ethik |Auflage=2 |Verlag=J.B. Metzler |Ort=Stuttgart |Datum=2023 |ISBN=978-3-476-05868-3 |Seiten=3–16}}</ref>}}, so dass sie von den unterschiedlichen normativen Theorien unabhängig und mit jeder akzeptablen Ethik verträglich sind. Sie werden daher als ''Prinzipien mittlerer Reichweite'' ({{enS|mid-level-principles}}) bezeichnet und sollen außerdem an die moralischen Alltagsüberzeugungen ({{enS|common morality}}) anknüpfen. Es gibt hier kein oberstes Prinzip, das die Anwendung der anderen Prinzipien regelt, vielmehr kann es im konkreten Anwendungsfall durchaus Kollisionen zwischen den Prinzipien geben.<ref name="Düber-Quante">{{Internetquelle |autor=Dominik Düber, [[Michael Quante]] |url=https://nbn-resolving.org/urn:nbn:de:hbz:6:2-106809 |titel=Prinzipien, Prinzipienkonflikte und moralischer Partikularismus |werk=Normenbegründung in Medizinethik und Biopolitik, Kolleg-Forschergruppe WWU Münster, 2016 |hrsg= |abruf=2023-06-07 |sprache=de}}</ref>

Die Anwendung der Prinzipien auf einen konkreten Fall ist keine einfache ''Herleitung'', sondern sie verlangt einerseits eine genaue Beschreibung der Handlungsalternativen und andererseits eine sorgfältige Interpretation und Gewichtung der Prinzipien. Ziel ist ein [[A Theory of Justice#Überlegungsgleichgewicht (reflective equilibrium)|Überlegungsgleichgewicht]] wie es [[John Rawls]] in seiner [[Theorie der Gerechtigkeit]] eingeführt hat. Das Überlegungsgleichgewicht liefert kein kategorisches Urteil, sondern eine sogenannte [[Prima facie]]- oder [[Ceteris paribus]]-Entscheidung. {{"|Es wird in schwierigen Fällen nicht gelingen, ein für alle Mal richtige moralische Urteile zu fällen, sie sind vielmehr immer vorläufig (defeasible).|ref=<ref name="Handbuch"/>}}


== Debatten der KI-Ethik ==
== Debatten der KI-Ethik ==

Version vom 7. September 2023, 10:42 Uhr

Die Ethik der künstlichen Intelligenz ist ein Teilbereich der angewandten Ethik, der sich mit den ethischen Fragen von KI-Systemen [1] befasst.

Themenbereiche der KI-Ethik sind:[2]

  • die Rolle von KI-Systeme in der Gesellschaft und ethische Werte, die ihrem Einsatz zugrunde liegen
  • ethische Normen für Menschen, die künstlich intelligente Systeme entwerfen, herstellen, testen, zertifizieren und benutzen
  • ethisches Verhalten von KI-Systemen (Maschinenethik)
  • Konsequenzen einer sog. Singularität aufgrund einer superintelligenten KI

Die KI-Ethik hat Berührungspunkte und Überlappungen mit anderen Teilbereichen der angewandten Ethik: Digitale Ethik, Informationsethik, Medienethik, Virtuelle Ethik, Technikethik und Roboterethik.

Die wachsende Bedeutung der KI-Ethik ergibt sich aus der Tatsache, dass „Künstliche Intelligenz (KI) und Robotik … in naher Zukunft erhebliche Auswirkungen auf die Entwicklung der Menschheit haben werden. Sie haben grundlegende Fragen darüber aufgeworfen, was wir mit diesen Systemen tun sollten, was die Systeme selbst tun sollten, welche Risiken sie bergen und wie wir diese kontrollieren können.“ Dabei sind nicht die Auswirkungen der KI-Anwendung an sich Gegenstand der KI-Ethik, sondern die Frage, wann und unter welchen Bedingungen bestimmte Auswirkungen zulässig sind.[3]

Die Debatte über ethische Fragen der KI begann bereits 1960 mit einer Arbeit[4] von Norbert Wiener und der Erwiderung von Arthur L. Samuel[5].

KI-Ethik als angewandte Ethik

KI-Ethik ist ein junges Teilgebiet der angewandten Ethik. Wie in anderen Bereichen der angewandten Ethik lassen sich auch hier zwei unterschiedliche Herangehensweisen unterscheiden: einerseits ein prinzipienethischer Ansatz, der allgemeine Prizipien für die Behandlung praktischer Probleme aufstellt, und andererseits ein partikularistischer Ansatz, der Moralurteile für konkrete Handlungsituationen entwickelt.

Prinzipienethischer Ansatz

Der prinzipienethische Ansatz (englisch principlism) wurde in den 1970er Jahren in der Medizinethik entwickelt[6] und dient seitdem als Vorbild für die Entwicklung anderer Bereichsethiken, auch der KI-Ethik.[7]

Bei diesem Ansatz wird ein Satz von Prinzipien bereitgestellt, aus denen sich moralische Urteile für konkrete Handlungssituationen ableiten lassen, daher auch die Bezeichnung deduktivistisches Modell.[8] Die Prinzipien werden „dadurch begründet, dass sie eine Art Schnittmenge verschiedener normativer Konzeptionen darstellen“[9], so dass sie von den unterschiedlichen normativen Theorien unabhängig und mit jeder akzeptablen Ethik verträglich sind. Sie werden daher als Prinzipien mittlerer Reichweite (englisch mid-level-principles) bezeichnet und sollen außerdem an die moralischen Alltagsüberzeugungen (englisch common morality) anknüpfen. Es gibt hier kein oberstes Prinzip, das die Anwendung der anderen Prinzipien regelt, vielmehr kann es im konkreten Anwendungsfall durchaus Kollisionen zwischen den Prinzipien geben.[10]

Die Anwendung der Prinzipien auf einen konkreten Fall ist keine einfache Herleitung, sondern sie verlangt einerseits eine genaue Beschreibung der Handlungsalternativen und andererseits eine sorgfältige Interpretation und Gewichtung der Prinzipien. Ziel ist ein Überlegungsgleichgewicht wie es John Rawls in seiner Theorie der Gerechtigkeit eingeführt hat. Das Überlegungsgleichgewicht liefert kein kategorisches Urteil, sondern eine sogenannte Prima facie- oder Ceteris paribus-Entscheidung. „Es wird in schwierigen Fällen nicht gelingen, ein für alle Mal richtige moralische Urteile zu fällen, sie sind vielmehr immer vorläufig (defeasible).“[8]

Debatten der KI-Ethik

Autonomes Fahren

Autonome Waffensysteme

Maschinenethik

Künstliche moralische Agenten

Die Abkürzung AMA für künstliche moralische Agenten geht auf die englische Bezeichnung „artificial moral agent“ zurück.

Datenschutz und Überwachung

Singularität durch superintelligente KI

Akteure der KI-Ethik

Literatur

Einzelnachweise

  1. KI-Systeme sind „vom Menschen entwickelte Software– (und möglicherweise auch Hardware–) Systeme, die in Bezug auf ein komplexes Ziel auf physischer oder digitaler Ebene agieren, indem sie ihre Umgebung durch Datenerfassung wahrnehmen, die gesammelten strukturierten oder unstrukturierten Daten interpretieren, Schlussfolgerungen daraus ziehen oder die aus diesen Daten abgeleiteten Informationen verarbeiten und über geeignete Maßnahmen zur Erreichung des vorgegebenen Ziels entscheiden. KI-Systeme können … auch ihr Verhalten anpassen, indem sie analysieren, wie die Umgebung von ihren vorherigen Aktionen beeinflusst wird.“ Ethics guidelines for trustworthy AI. Europäische Kommission, 2019, abgerufen am 30. Juni 2023.
  2. Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien: Erklärung zu künstlicher Intelligenz, Robotik und „autonomen“ Systemen. Europäische Kommission, Generaldirektion Forschung und Innovation, 2018, abgerufen am 1. Mai 2023.
  3. Vincent C. Müller: Ethics of Artificial Intelligence and Robotics. In: The Stanford Encyclopedia of Philosophy (Summer 2021 Editionn). Edward N. Zalta, Uri Nodelman, abgerufen am 20. Juni 2023 (englisch).
  4. Norbert Wiener: Some Moral and Technical Consequences of Automation. In: Science. Band 131, Nr. 3410, 1960, S. 1355–1358, JSTOR:1705998.
  5. Arthur L. Samuel: Some Moral and Technical Consequences of Automation - A Refutation. In: Science. Band 132, Nr. 3429, 1960, S. 741–742, doi:10.1126/science.132.3429.741.
  6. Tom Lamar Beauchamp und James Franklin Childress: Principles of biomedical ethics. 8. Auflage. Oxford University Press, New York, NY 2019, ISBN 978-0-19-064087-3 (1. Auflage 1979).
  7. Jaana Hallamaa, Taina Kalliokoski: AI Ethics as Applied Ethics. University of Helsinki, 2022, abgerufen am 30. Juni 2023 (englisch).
  8. a b Ralf Stoecker, Christian Neuhäuser, Marie-Luise Raters: Einführung und Überblick. In: Christian Neuhäuser, Marie-Luise Raters, Ralf Stoecker (Hrsg.): Handbuch Angewandte Ethik. 2. Auflage. J.B. Metzler, Stuttgart 2023, ISBN 978-3-476-05868-3, S. 33–37.
  9. Marcus Düwell: Prinzipienethik. In: Christian Neuhäuser, Marie-Luise Raters, Ralf Stoecker (Hrsg.): Handbuch Angewandte Ethik. 2. Auflage. J.B. Metzler, Stuttgart 2023, ISBN 978-3-476-05868-3, S. 3–16.
  10. Dominik Düber, Michael Quante: Prinzipien, Prinzipienkonflikte und moralischer Partikularismus. In: Normenbegründung in Medizinethik und Biopolitik, Kolleg-Forschergruppe WWU Münster, 2016. Abgerufen am 7. Juni 2023.