Elektronische Person

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Eine elektronische Person, auch E-Person, engl. electronic person ist eine weitgehend autonom agierende Maschine, für die angesichts der technischen Entwicklung ein eigener Rechtsstatus geschaffen werden soll. Insbesondere im geltenden Haftungsrecht ist eine elektronische Person bislang nicht anerkannt. Würde die elektronische Person als Rechtssubjekt anerkannt, dann wären derartige Maschinen Träger von Rechten und Pflichten und stünden gleichberechtigt neben der natürlichen Person und der juristischen Person.[1] Regelungsbedarf besteht z. B. für das selbstfahrende Auto, Roboter in Industrie, Pflege oder Haushalt sowie Drohnen.

Motivation[Bearbeiten | Quelltext bearbeiten]

Wer haftet bei einem Fehlverhalten einer autonom handelnden Maschine? Auf diese Frage gibt es noch keine eindeutige Antwort, da die Ursache für das Fehlverhalten bei einer derartigen Maschine oft nicht ermittelt werden könne und die Rechtslage noch größtenteils ungeklärt sei.[2]

Stand[Bearbeiten | Quelltext bearbeiten]

Das Europäische Parlament hat eine mögliche Regelungslücke erkannt und im Januar 2017 eine Entschließung verabschiedet. Die Europäische Kommission soll dem Europäischen Parlament einen Vorschlag für eine Richtlinie über zivilrechtliche Regelungen im Bereich Robotik unterbreiten.[3][4]

Naheliegend ist die Idee, zur Abdeckung von Schäden eine Versicherungspflicht für die autonom agierenden und selbst lernenden Maschinen einzuführen, denn die Entwickler, Vertreiber und Anwender können hier beim Fortschreiten der technischen Entwicklung immer weniger zur Verantwortung gezogen werden. Überlegt wird auch, derartigen Maschinen einen Arbeitslohn zukommen zu lassen, um damit die Versicherungsbeiträge zu bezahlen. Bill Gates fordert, dass Roboter Steuern zahlen sollen in dem Maße, wie für die Einkünfte derer, die sie ersetzen. Damit könnte dem Staat wie auch der Gesellschaft die durch den Robotereinsatz entgehende Lohn- und Einkommensteuer ausgeglichen werden.[5]

Kritik[Bearbeiten | Quelltext bearbeiten]

Bedenken gegen die Einführung der elektronischen Person hat eine internationale Gruppe aus mehr als 250 KI-Forschern, Rechtsprofessoren, Philosophen, Theologen und Unternehmern. In einem offenen Brief an die EU-Kommission[6] hält sie das rechtliche Konstrukt einer elektronischen Person weder für sachgerecht noch für erforderlich. Die Ursachen für das Fehlverhalten autonom agierender Maschinen seien sehr wohl zurechenbar und somit die Frage nach der Haftung bereits nach geltendem Recht zu beantworten.[7] Der Rechtsstatus einer elektronischen Person lasse sich weder aus dem Modell der natürlichen noch dem einer juristischen Person ableiten. Die Zuerkennung menschlicher Rechte bedeute eine Überbewertung der "Autonomie" von Maschinen und sei nicht vereinbar mit dem Menschenbild der Charta der Grundrechte der Europäischen Union und der Europäischen Menschenrechtskonvention. Auch eine juristische Person repräsentiere stets menschliche Wesen.

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Markus Häuser: Roboter & KI vor dem Gesetz vom 10. März 2017.
  2. Marina Vogt: Haften wir in Zukunft für unsere Roboter? vom 10. Oktober 2017.
  3. Bericht vom 27. Januar 2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik Website des Europäischen Parlaments, abgerufen am 27. Mai 2018
  4. Robots: Legal Affairs Committee calls for EU-wide rules vom 12. Januar 2017 (englisch)
  5. Thomas Klindt, Nico Kuhlmann: Haben Roboter Rechte? vom 11. November 2017.
  6. Open Letter To The European Commission – Artificial Intelligence And Robotics vom 27. Januar 2018.
  7. Tomislav Bezmalinovic: Streit um Rechte von Robotern: Wer haftet, wenn etwas schief geht? vom 21. April 2018.