Roboterethik

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Roboterethik ist die Anwendung der Ethik auf die Robotik. Sie behandelt die Entwicklung, Herstellung und Verwendung von Robotern.

Mit zunehmender Präsenz von Robotern in menschlichen Lebenszusammenhängen und wachsendem Bewusstsein darüber, dass es sich bei Robotern nicht mehr nur um reine Werkzeuge handelt, sondern auch um Software-Agenten, Begleiter oder Avatare[1][2] stellte sich die Frage nach einer Einschätzung der ethischen Herausforderungen für den Menschen. 2004 wurde in Sanremo (Italien) das erste internationale Symposion zur Roboterethik abgehalten. Bereits zuvor wurde das Thema in der Science-Fiction ausführlich behandelt, beispielsweise im Rahmen der von Isaac Asimov entwickelten Robotergesetze.[3]

Roboethics Roadmap[Bearbeiten | Quelltext bearbeiten]

In der European Robotics Research Network Roboethics Roadmap von 2006 wird die ethische Dimension wie folgt dargelegt:[4] Je nachdem wie die Fähigkeiten der Roboter gesehen werden, ergeben sich unterschiedliche Bewertungen von Robotern in der ethischen Dimension:

  • Roboter sind nichts als Maschinen: In diesem Fall ist Roboethics vergleichbar mit der Ethik jeder anderen mechanischen Wissenschaft
  • Roboter haben eine ethische Dimension: Hierbei geht man davon aus, dass Roboter eine intrinsische ethische Dimension besitzen, da sie als symbolische Produkte des Menschen die Fähigkeit des Menschen zum ethischen Handeln erweitern und verbessern können.
  • Roboter sind moralische Agenten: Künstliche Agenten können nun als moralische Patienten (also Objekt moralischen Handelns) oder moralische Agenten auftreten. Dazu ist es nach der Meinung der meisten Roboethiker nicht notwendig, dass sie, um ethisch zu handeln, unbedingt über einen freien Willen verfügen müssen. Hier wird das Augenmerk auf die Handlung und nicht die Entscheidung zur Handlung gelegt.
  • Roboter sind eine neue Spezies: Nach dieser Ansicht werden Roboter nicht nur über Bewusstsein verfügen, sondern in der Moral und Intelligenz die menschlichen Dimensionen überschreiten.

Prognose EURON[Bearbeiten | Quelltext bearbeiten]

Laut Prognose des EURON[5] werden Roboter in näherer Zukunft in folgenden Bereichen entwickelt und eingesetzt werden::

  • Herstellung von humanoiden Robotern: Also die Herstellung eines Roboters bzw. Androiden von menschenähnlicher Intelligenz und Emotionsfähigkeit. Im Einklang mit der sogenannten Fukuoka World Robot Declaration von 2004 gibt auch EURON drei programmatische Punkte aus:
  1. Roboter der nächsten Generation werden als Partner mit Menschen koexistieren.
  2. Roboter der nächsten Generation werden Menschen sowohl physisch als auch psychisch unterstützen.
  3. Roboter der nächsten Generation werden zu der Realisierung einer sicheren und friedvollen Gesellschaft beitragen.
  • Moderne Produktionsanlagen in Fabriken aber auch in Kleinbetrieben
  • Anpassungsfähige Serviceroboter und intelligente Häuser; einerseits handelt es sich dabei um humanoide Serviceroboter, andererseits um Wohnräume, die vollkommen computerisiert, sensorgesteuert und vernetzt sind. Als illustratives Beispiel sei der selbstbestellende Kühlschrank genannt, der, sobald die Vorräte zuneige gehen, automatisch bei einem Händler per Netzwerk für Nachschub sorgt.
  • Netzwerkrobotik: dabei handelt es sich vor allem um Weiterentwicklungen der künstlichen Intelligenz im Internet, wie sie jetzt schon ansatzweise in Suchmaschinen zu beobachten ist.
  • Außenweltroboter: Hier sind vor allem in der Raumfahrt große Fortschritte erzielt worden; aber auch im Bergbau, der Lagerhaltung und in der Landwirtschaft sind in naher Zukunft Weiterentwicklungen absehbar.
  • Gesundheitswesen und Lebensqualität: In den letzten Jahren hat relativ unbemerkt eine Robotisierung der Medizin und Chirurgie eingesetzt. Computerunterstützte Diagnoseverfahren, Therapieroboter und chirurgische Roboter sind in Europa seit dem Jahr 2000 zugelassen.
  • Militärroboter: Integrierte Verteidigungssysteme, autonome Fahrzeuge und Flugzeuge sowie intelligente Munition.
  • Edutainment: Neben Unterricht, Spielwaren und Unterhaltungsindustrie wird hier auch ganz dezidiert die Sexindustrie angesprochen.

In den letzten zwei Jahren ist jedoch vermehrt Kritik an der sehr optimistischen Sicht der zukünftigen Rolle von Robotern in der Gesellschaft laut geworden. Es wird zunehmend die Gefahr gesehen, dass Menschen immer weniger in Lebensbezügen stehen werden, da die Artefakte nur die Illusion von Leben vermitteln können. Die Auswirkungen des dauernden Interagierens mit pseudomenschlichen Wesen auf die Psyche der Menschen werden zumindest als potentiell problematisch angesehen.[6] Eine substanzielle Kritik am Einsatz von Robotern im sozialen und militärischen Bereich, vorgetragen in erster Linie durch den Computerpionier Joseph Weizenbaum, findet sich in dem Dokumentarfilm Plug & Pray.[7]

Die ethischen Herausforderungen der nächsten Jahre werden somit nicht „Roboterrechte“ darstellen, sondern den Umgang mit der kommenden Realität von einer robotisierten Gesellschaft.

Robotik und Recht[Bearbeiten | Quelltext bearbeiten]

Parallel zu der Beschäftigung mit Robotik aus ethischer Perspektive entwickelt sich eine rechtswissenschaftliche Betrachtung der spezifischen Fragestellungen beim Einsatz von Robotern.[8] Im Mittelpunkt stehen dabei vor allem die zivil- und strafrechtliche Haftung sowie die durch einen erhöhten Autonomiegrad notwendigen Verschiebungen der Haftungszurechnung,[9] so zum Beispiel im Bereich Robotik und AAL.[10] Mit dem Einsatz von Robotern zur Wahrnehmung staatlicher Aufgaben in besonders grundrechtssensiblen Bereichen, zum Beispiel in Gefängnissen,[11] stellen sich zudem auch besondere öffentlich-rechtliche Fragen, etwa im Bereich des Datenschutzes, die über die Anforderungen an Produktsicherheit und Zulassungskriterien hinausgehen. Der Einsatz von Robotern wird die Gesellschaft in Zukunft vor eine Vielzahl bislang ungelöster juristischer Probleme stellen. Am ehesten wird diese Diskussion im Rahmen von autonom fahrenden Autos geführt, welche unter Umständen auch eine Entscheidung über Leben und Tod treffen müssen.[12] Bislang gibt es nur sehr wenige Rechtsanwälte, die sich mit dem Thema „Roboterrecht“ beschäftigen und auf diesem Gebiet beraten.

Technische Entwicklungen[Bearbeiten | Quelltext bearbeiten]

Fragen zur Roboterethik stellen sich derzeit insbesondere bei selbstfahrenden Kraftfahrzeugen, dem maschinellem Lernen in Big-Data-Anwendungen, sowie der Entwicklung zukünftiger Militärroboter.

Selbstfahrende Kraftfahrzeuge[Bearbeiten | Quelltext bearbeiten]

Im Bereich der selbstfahrenden Kraftfahrzeuge stellen sich etwa Fragen wie sich ein solches Fahrzeug verhalten soll, falls sich ein Trolley-Problem ergibt und ein Unfall unvermeidbar ist. Etwa ob ein Kraftfahrzeug ein Bremsmanöver einleiten soll um einen Auffahrunfall zu vermeiden, dadurch aber durch ein nachfolgendes Fahrzeug in einen Auffahrunfall verwickelt wird. Ein anderes Dilemma wäre es ob das Fahrzeug ausweichen soll um ein Überfahren eines Kindes zu verhindern, auch wenn dadurch das Fahrzeug in einen Abhang fährt und die Insassen des Fahrzeuges vermutlich getötet werden. Um zu erfassen welche Meinung Menschen haben, gibt es etwa die „Moral Machine“ des MIT Media Lab.[13]

Aus der Sicht von Ingenieuren wird die Lösung moralischer Fragen gemäß dem Sparsamkeitsprinzip und dem davon abgeleiteten YAGNI allerdings als unnötig gesehen und gar nicht erst implementiert. Vielmehr werden alle Objekte die eine Kollision verursachen würden gleichermaßen als solides Objekt gesehen, also keine Unterscheidung zwischen einer Mauer, einem anderen Fahrzeug, einem Tier oder einer Person gemacht, und eine Kollision mit den jeweiligen Objekttypen gleichermaßen vermieden. Im Falle eines Problems oder Dilemmas, welches das Fahrzeug nicht selbst lösen kann, muss der Fahrer das Fahrzeug übernehmen.

Einen anderen Ansatz verfolgt etwa der deutsche Autohersteller Mercedes, denn hier wird die Sicherheit des Fahrers des Fahrzeuges gegenüber allen anderen Verkehrsteilnehmern vorrangig behandelt. Im Extremfall bedeutet das allerdings, dass das Fahrzeug um einen Zusammenprall mit einer Mauer zu verhindern, welcher der Fahrer im Eigenverschulden verursacht hat, in eine Schülergruppe rasen würde.[14] Diese Position wird von Menschenrechtlern daher scharf kritisiert.

Maschinelles Lernen[Bearbeiten | Quelltext bearbeiten]

Im Falle des Maschinellen Lernens ergibt sich das Problem, dass die zu erlernenden Datensätze oftmals von Menschen stammen und kognitiven Verzerrungen wie verschiedenen kulturellen Bias unterliegen.[15][16]

Beispielsweise wird ein in den Daten vorliegender Sexismus vom Algorithmus übernommen. Die Frage „Mann/Frau = Arzt/?“ könnte dadurch mit „Krankenschwester“ anstatt mit „Ärztin“ beantwortet werden. Dieser Bias kann herausgerechnet werden, indem entsprechende Wortpaare Menschen vorgelegt werden und diese die Plausibilität der Aussagen prüfen müssen. Anhand dessen kann ein Tensor ermittelt werden, welche den Bias herausrechnet.[17] Ein Bias, welcher von den menschlichen Prüfern nicht festgestellt wird, führt zu systematischen Fehlern und in Folge zu Fehlentscheidungen des Systems.

Besonders kritisch ist dies etwa in Systemen zur Verbrechensvorhersage. Wenn Menschen aufgrund einer sozioökonomischen Benachteiligung (z. B. aufgrund der Hautfarbe) ein Verbrechen begehen, dafür verurteilt werden, sowie in Folge eine weitere sozioökonomische Benachteiligung erfahren (z. B. beim Arbeitsplatz oder in der Bildung), führt dies dazu, dass die Verbrechensrate weiter steigt. In Folge zementiert die Vorhersage über eine derartige Rückkopplung also die bestehende sozioökonomische Benachteiligung.[18][19] Es ist daher für solche Systeme notwendig diese Rückkopplung zu unterbinden und die Chancengleichheit spätestens in der Nachfolgegeneration sicherzustellen.

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Wendell Wallach, Colin Allen: Moral Machines. Teaching Robots Right from Wrong. Oxford 2009 (englisch).
  • Rafael Capurro, Michael Nagenborg (Hgg.): Ethics and Robotics. Heidelberg 2009 (englisch).

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Partner Robot. Toyota, abgerufen am 3. Januar 2017 (englisch).
  2. PaPeRoのお取り扱いについて. NEC, abgerufen am 3. Januar 2017 (japanisch).
  3. badische-zeitung.de, Computer & Medien, 18. Februar 2017, Eva Wolfangel: Wie weit liefern sich Menschen den Computern aus? (19. Februar 2017)
  4. EURON Roboethics Roadmap. Juli 2006, S. 24, abgerufen am 3. Januar 2017 (PDF, englisch).
  5. EURON Roboethics Roadmap. Juli 2006, S. 28-38, abgerufen am 3. Januar 2017 (PDF, englisch).
  6. Kritik von Noel Sharkey (Memento vom 21. Februar 2009 im Internet Archive)
  7. Plug & Pray. 2010, abgerufen am 3. Januar 2017 (Dokumentarfilm über Robotik und künstliche Intelligenz).
  8. http://www.law.stanford.edu/calendar/details/3496/#related_media
  9. Interview mit Prof. Dr. Dr. Eric Hilgendorf in NJW-aktuell, Heft 21/2010, S.12
  10. Günther, J. / Eck, D.: Assistenzsysteme zur Unterstützung der Mobilität für Ambient Assisted Living und deliktische Haftung, in: Brukamp/Laryionava/Schweikardt/Groß (Hg.), Technisierte Medizin - Dehumanisierte Medizin?, Kassel 2011, S. 85 - 92.
  11. http://www.spiegel.de/netzwelt/gadgets/0,1518,800179,00.html
  12. http://www.faz.net/aktuell/feuilleton/geisteswissenschaften/ethische-prinzipien-fuer-autonome-autos-13722800.html
  13. Moral Machine. MIT Media Lab, abgerufen am 2. Januar 2017 (deutsch).
  14. Kieren McCarthy: Mercedes answers autonomous car moral dilemma: Yeah, we'll just run over pedestrians. In: The Register. 12. August 2016, abgerufen am 2. Januar 2017 (englisch).
  15. Moritz Hardt: How big data is unfair. Medium, 26. September 2014, abgerufen am 2. Januar 2017 (englisch).
  16. Julia Nolte: Eine Welt aus Daten. Sieben Geschichten darüber, wie das Sammeln großer Informationsmengen unseren Alltag verändert – und welche Fragen das aufwirft. Die Zeit, 20. Oktober 2016, abgerufen am 3. Januar 2017.
  17. How Vector Space Mathematics Reveals the Hidden Sexism in Language. MIT Technology Review, 27. Juli 2016, abgerufen am 3. Januar 2017 (englisch).
  18. Andrew Tarantola: Can big data and AI fix our criminal-justice crisis? In: Politics. Engadget, 17. August 2016, abgerufen am 3. Januar 2017 (englisch).
  19. John J. Donohue Ⅲ, Steven D. Levit: The Impact Of Race On Policing And Arrests. 2001, abgerufen am 3. Januar 2017 (PDF, englisch).

Weblinks[Bearbeiten | Quelltext bearbeiten]