Regulierung von künstlicher Intelligenz

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Die Regulierung von künstlicher Intelligenz ist die Entwicklung von Strategien und Gesetzen auf Seiten des öffentlichen Sektors zur Förderung und Regulierung von künstlicher Intelligenz (KI); sie ist daher mit der allgemeinen Regulierung von Algorithmen verwandt.[1][2][3][4][5] Die regulatorische und politische Landschaft für KI ist ein aufkommendes Thema in den verschiedenen Rechtssystemen weltweit, einschließlich der Europäischen Union[6] (die über eine gesetzliche Regulierungsbefugnis verfügt) und in supranationalen Gremien wie dem IEEE, der OECD (die nicht über eine solche verfügen) und anderen.[7] Seit 2016 wurde eine Reihe von Ethikrichtlinien für KI veröffentlicht, um die gesellschaftliche Kontrolle über die Technologie auch in Zukunft gewährleisten zu können.[8] Eine Regulierung wird als notwendig erachtet, um KI einerseits zu fördern und andererseits die damit verbundenen Risiken zu managen. Neben der Regulierung müssen Organisationen, die KI einsetzen, eine zentrale Rolle bei der Entwicklung und dem Einsatz vertrauenswürdiger KI im Einklang mit den Grundsätzen einer solchen spielen[9] und Verantwortung übernehmen, um die Risiken zu minimieren.[10] Die Regulierung von KI durch Mechanismen wie Prüfungsausschüsse kann auch als sozialer Ansatz zur Lösung des KI-Kontrollproblems betrachtet werden.[11][12]

Laut dem AI Index der Stanford University ist die Zahl der jährlich verabschiedeten Gesetze mit KI-Bezug in den 127 untersuchten Ländern von einem im Jahr 2016 auf 37 allein im Jahr 2022 gestiegen.[13][14]

Hintergrund[Bearbeiten | Quelltext bearbeiten]

Experten und Befürworter der Bereiche verantwortungsvolle KI, KI-Ethik, Verbraucherschutz und Cybersicherheit haben mindestens seit den 1960er Jahren die Notwendigkeit von Leitplanken für die KI-Entwicklung betont.[15] 2017 forderte Elon Musk eine Regulierung für die Entwicklung von KI.[16] Laut NPR war der Tesla-CEO „keineswegs begeistert“ eine Forderung nach einer staatlichen Kontrolle zu stellen, die sich auf seine eigene Branche auswirken könnte, glaubte aber, dass die Risiken eines völligen Verzichts auf eine Aufsichtsinstanz zu hoch seien: „Normalerweise werden Regulierungen so eingerichtet, dass es, sobald ein paar schlimme Dinge passieren, einen öffentlichen Aufschrei gibt, und viele Jahre vergehen bis eine Regulierungsbehörde eingerichtet wird, um diese Branche zu regulieren. Das dauert ewig. In der Vergangenheit war das zwar schlecht, aber nicht etwas, das eine wesentliche Gefahr für die Existenz der Zivilisation darstellte.“[16] Daraufhin äußerten sich einige Politiker skeptisch über die Sinnhaftigkeit der Regulierung einer Technologie, die sich noch in der Entwicklung befindet.[17] Sowohl auf Musk als auch auf die Vorschläge von Gesetzgebern der Europäischen Union vom Februar 2017, die eine Regulierung von KI und Robotik vorsahen, reagierte der CEO von Intel, Brian Krzanich, mit dem Argument, dass KI noch in den Kinderschuhen stecke und es zu früh sei, die Technologie zu regulieren.[18] Anstatt zu versuchen, die Technologie selbst zu regulieren, schlugen einige Wissenschaftler vor, gemeinsame Normen zu entwickeln, einschließlich Anforderungen an die Prüfung und Transparenz von Algorithmen, möglicherweise in Kombination mit einer Art von Gewährleistungspflicht.[19]

In einer Ipsos-Umfrage aus dem Jahr 2022 zeigte sich die Einstellung gegenüber KI je nach Land sehr unterschiedlich. 78 % der Chinesen, aber nur 35 % der Amerikaner stimmten zu, dass „Produkte und Dienstleistungen, bei denen KI zum Einsatz kommt, mehr Vorteile als Nachteile haben“.[13] Eine Reuters/Ipsos-Umfrage aus dem Jahr 2023 ergab, dass 61 % der Amerikaner der Meinung sind, dass KI Risiken für die Menschheit birgt, während dies 22 % verneinten.[20] In einer Fox News-Umfrage von 2023 hielten es 35 % der Amerikaner für „sehr wichtig“ und weitere 41 % für „einigermaßen wichtig“, dass die US-Regierung KI reguliert. 13 % hielten diesen Eingriff hingegen für „nicht sehr wichtig“ und 8 % für „überhaupt nicht wichtig“.[21][22]

Perspektiven[Bearbeiten | Quelltext bearbeiten]

Die Regulierung von künstlicher Intelligenz ist die Entwicklung von Strategien und Gesetzen des öffentlichen Sektors zur Förderung und Regulierung von KI.[23] Eine Regulierung wird heute allgemein als notwendig erachtet, um sowohl die Entwicklung von KI zu fördern als auch die damit verbundenen Risiken zu managen.[24][3][25] Die Überlegungen der öffentlichen Verwaltung und der Politik konzentrieren sich im Allgemeinen auf die technischen und wirtschaftlichen Auswirkungen sowie auf vertrauenswürdige und am Menschen orientierte KI-Systeme,[26] obwohl auch die Regulierung künstlicher Superintelligenzen in Betracht gezogen wird.[27] Der grundlegende Regulierungsansatz konzentriert sich auf die Risiken und „kognitiven Verzerrungen“ (engl.: biases) von Algorithmen des maschinellen Lernens auf der Ebene der Eingabedaten, der Testung von Algorithmen und des Entscheidungsmodells. Er konzentriert sich außerdem auf die Erklärbarkeit der Ergebnisse.[3]

Die Vorschläge zur Regulierung von KI betreffen sowohl die Kategorie des „Hard Law“ als auch die des „Soft Law“.[28] Einige Rechtswissenschaftler haben festgestellt, dass Hard-Law-Ansätze zur Regulierung von KI mit erheblichen Herausforderungen verbunden sind.[29][30] Zu den Herausforderungen gehört, dass sich die Technologie schnell weiterentwickelt, was dazu führt, dass herkömmliche Gesetze und Vorschriften oft nicht mit den neuen Anwendungen und den damit verbundenen Risiken und Vorteilen Schritt halten können.[29][30] Ebenso stellt die Vielfalt der KI-Anwendungen eine Herausforderung für die bestehenden Regulierungsbehörden dar, die oft nur über einen begrenzten Zuständigkeitsbereich verfügen.[29] Als Alternative argumentieren einige Rechtswissenschaftler, dass Soft-Law-Ansätze zur KI-Regulierung vielversprechend sind, da Soft-Laws flexibler an die Bedürfnisse der aufkommenden und sich entwickelnden KI-Technologie und der im Entstehen begriffenen Anwendungen angepasst werden können.[29][30] Allerdings mangelt es Soft-Law-Ansätzen oft an substantiellem Durchsetzungspotenzial.[29][31]

Cason Schmit, Megan Doerr und Jennifer Wagner schlugen die Schaffung einer quasi-staatlichen Regulierungsbehörde vor, wobei die Rechte an geistigem Eigentum (d. h. Copyleft-Lizenzen) bezüglich bestimmter KI-Objekte (d. h. KI-Modelle und Trainingsdatensätze) genutzt und die Durchsetzungsrechte an eine dafür offiziell ausgewiesene Einrichtung delegiert werden sollten.[32] Sie argumentieren, dass KI unter Bedingungen lizenziert werden kann, die die Einhaltung bestimmter ethischer Praktiken und Verhaltenskodizes erfordern. (z. B. Grundsätze des Soft Law).[32]

Die Regulierung von KI könnte sich aus Grundprinzipien ableiten. Eine Metaanalyse des Berkman Klein Center for Internet & Society aus dem Jahr 2020 zu bestehenden Prinzipien, wie den Asilomar-Prinzipien und den Beijing-Prinzipien, hat acht solcher Grundprinzipien identifiziert: Datenschutz, Rechenschaftspflicht, Sicherheit, Transparenz und Erklärbarkeit, Fairness und Nichtdiskriminierung, Kontrolle der Technologie durch den Menschen, professionelle Verantwortung und Respekt für menschliche Werte.[33] KI-Gesetze und -Vorschriften wurden in drei Hauptbereiche unterteilt: die Steuerung autonomer intelligenter Systeme, die Verantwortung und Rechenschaftspflicht für die Systeme sowie Fragen zum Schutz personenbezogener Daten und der Sicherheit.[24] Ein Ansatz der öffentlichen Verwaltung sieht eine Beziehung zwischen KI-Gesetzen, der Regulierung von KI, der Ethik von KI, der „KI-Gesellschaft“, die definiert wird als Substitution von Arbeitskräften und Transformation des Arbeitsmarkts, der sozialen Akzeptanz und dem Vertrauen in KI sowie der Transformation der Interaktion zwischen Mensch und Maschine.[34] Die Entwicklung von Strategien des öffentlichen Sektors für die Verwaltung und Regulierung von KI wird auf lokaler, nationaler[35] und internationaler Ebene[36] und in einer[37] Vielzahl von Bereichen für notwendig erachtet, von der Verwaltung des öffentlichen Dienstes[38] und der Rechenschaftspflicht über die Strafverfolgung,[36][39] das Gesundheitswesen,[40][41][42][43][44] den Finanzsektor,[35] die Robotik,[45][46] autonome Fahrzeuge,[45] das Militär[47], bis hin zur nationalen Sicherheit[48] und dem internationalen Recht.[49][50]

Henry Kissinger, Eric Schmidt und Daniel Huttenlocher veröffentlichten im November 2021 eine gemeinsame Erklärung mit dem Titel „Being Human in an Age of AI“ (deutsch: Menschsein im Zeitalter der KI), in der sie eine Regierungskommission zur Regulierung von KI forderten.[51]

Als Reaktion auf das KI-Kontrollproblem[Bearbeiten | Quelltext bearbeiten]

Die Regulierung von KI kann als positives gesellschaftliches Mittel zur Bewältigung des KI-Kontrollproblems (die Notwendigkeit, eine langfristig nutzenstiftende und an menschlichen Werten ausgerichtete KI zu gewährleisten) gesehen werden. Andere gesellschaftliche Reaktionen wie Nichtstun oder Verbote werden in diesem Kontext als nicht praktikabel und Ansätze wie die Verbesserung menschlicher Fähigkeiten durch transhumanistische Techniken wie Gehirn-Computer-Schnittstellen als potenziell ergänzend angesehen.[12][52] Die Regulierung der Forschung im Bereich der allgemeinen künstlichen Intelligenz (engl.: artificial general intelligence; AGI) konzentriert sich auf die Rolle von Prüfungsausschüssen, von der Universitäts- oder Unternehmensebene bis hin zur internationalen Ebene, und auf die Förderung der Forschung im Bereich der KI-Sicherheit,[52] zusammen mit der Möglichkeit eines differenzierten intellektuellen Fortschritts (Vorrang von Schutzstrategien vor risikoreichen Strategien bei der KI-Entwicklung) oder der Durchführung einer internationalen Aufsicht zur Gewährleistung einer AGI-Rüstungskontrolle.[12] Beispielsweise wurde mit der „AGI-Nanny“, die potenziell unter der Kontrolle der Menschheit steht, eine Strategie vorgeschlagen, um die Schaffung einer gefährlichen Superintelligenz zu verhindern und andere große Bedrohungen für das menschliche Wohlergehen, wie die Unterwanderung des globalen Finanzsystems, zu bekämpfen, bis eine echte Superintelligenz auf sichere Weise entwickelt werden kann. Der Vorschlag beinhaltet die Schaffung eines übermenschlich intelligenten, aber nicht superintelligenten AGI-Systems, das mit einem großen Überwachungsnetz verbunden ist, um die Menschheit zu beobachten und vor Gefahren zu schützen.[12] Die Regulierung sich ihrer selbst bewusster, ethisch reflektierter AGI konzentriert sich auf die Frage, wie eine solche KI in die bestehende menschliche Gesellschaft integriert werden könnte, und kann in Überlegungen zu ihrer rechtlichen Stellung und ihren moralischen Rechten unterteilt werden.[12] Die Regulierung von KI wurde von manchen mit Verweis auf das Risiko, die Entwicklung von AGI zu verhindern, als restriktiv angesehen.[45]

Globale Handlungshilfen[Bearbeiten | Quelltext bearbeiten]

Bereits 2017 wurde die Einrichtung eines globalen Gremiums zur Regulierung der KI-Entwicklung vorgeschlagen.[53] Im Dezember 2018 kündigten Kanada und Frankreich Pläne für ein von der G7 unterstütztes International Panel on Artificial Intelligence (deutsch: internationales Gremium für Künstliche Intelligenz) an, das nach dem Vorbild des International Panel on Climate Change (IPCC) die globalen Auswirkungen von KI auf Menschen und Volkswirtschaften untersuchen und die KI-Entwicklung steuern soll.[54] 2019 wurde das Gremium in Global Partnership on AI (GPAI; deutsch: Globale Partnerschaft für KI) umbenannt.[55][56]

Das GPAI wurde im Juni 2020 ins Leben gerufen. Es verweist auf die Notwendigkeit, dass KI im Einklang mit den Menschenrechten und demokratischen Werten entwickelt werden muss, um das Vertrauen der Öffentlichkeit in die Technologie zu gewährleisten, so wie in den OECD-Grundsätzen für künstliche Intelligenz (2019) dargelegt wird.[57] Die 15 Gründungsmitglieder des GPAI sind Australien, Kanada, die Europäische Union, Frankreich, Deutschland, Indien, Italien, Japan, die Republik Korea, Mexiko, Neuseeland, Singapur, Slowenien, die USA und das Vereinigte Königreich. Im Jahr 2023 hat die GPAI 29 Mitglieder.[58] Das GPAI-Sekretariat wird von der OECD in Paris, Frankreich, geführt. Das Mandat der GPAI umfasst vier Themen, von denen zwei vom Internationalen Kompetenzzentrum für die Förderung der künstlichen Intelligenz in Montréal unterstützt werden, namentlich verantwortungsvolle KI und Data Governance. Ein entsprechendes Kompetenzzentrum in Paris wird die beiden anderen Themen zur Zukunft der Arbeit sowie zu Innovation und Kommerzialisierung unterstützen. Das GPAI untersuchte auch, wie KI genutzt werden kann, um auf die COVID-19-Pandemie zu reagieren.[57]

Die KI-Grundsätze der OECD[59] wurden im Mai 2019 und die KI-Grundsätze der G20 im Juni 2019 verabschiedet.[56][60][61] Im September 2019 veröffentlichte das Weltwirtschaftsforum zehn „KI-Leitlinien für das öffentliche Beschaffungswesen“.[62] Im Februar 2020 veröffentlichte die Europäische Union ihren Entwurf eines Strategiepapiers zur Förderung und Regulierung von KI.[36]

Bei den Vereinten Nationen (UN) haben mehrere Einrichtungen damit begonnen, Aspekte der KI-Regulierung und -Policy zu fördern und zu erörtern, darunter das UNICRI Centre for AI and Robotics (deutsch: UNICRI-Zentrum für KI und Robotik),[48] das in Zusammenarbeit mit INTERPOL im April 2019 den Bericht AI and Robotics for Law Enforcement[63] und im Mai 2020 den Folgebericht Towards Responsible AI Innovation herausgab.[39] Auf der 40. wissenschaftlichen Tagung der UNESCO im November 2019 begann die Organisation einen zweijährigen Prozess, um ein „globales standardisierendes Instrument zur Ethik der künstlichen Intelligenz“ zu schaffen. Um dieses Ziel zu erreichen, wurden UNESCO-Foren und -Konferenzen zum Thema KI abgehalten, um die Ansichten der Interessengruppen einzuholen. Im September 2020 wurde ein Entwurf für eine Empfehlung der Ad-hoc-Expertengruppe der UNESCO zur Ethik der KI veröffentlicht, der auch eine Aufforderung zur Schließung von Gesetzeslücken enthielt.[64] Die UNESCO legte ihren Vorschlag für ein internationales Instrument zur Ethik der KI auf ihrer Generalkonferenz im November 2021 zur Verabschiedung vor,[57] wo dieser anschließend angenommen wurde.[65] Während die Vereinten Nationen bei der globalen Steuerung von KI Fortschritte machen, sind ihre institutionellen und rechtlichen Möglichkeiten zur Eindämmung des existenziellen Risikos durch KI eher begrenzt.[66]

AI for Good, eine Initiative der Internationalen Fernmeldeunion (ITU) in Zusammenarbeit mit 40 UN-Schwesterorganisationen, ist eine globale Plattform, die darauf ausgerichtet ist, praktische Anwendungen der KI zu identifizieren, um die Ziele der Vereinten Nationen für nachhaltige Entwicklung voranzubringen, und die so ermittelten Lösungen zu skalieren, um Effekte von globaler Tragweite zu erzielen. Es handelt sich um eine handlungsorientierte, globale und integrative Plattform der Vereinten Nationen, die die Entwicklung von KI fördert, um positive Auswirkungen auf Gesundheit, Klima, Gleichberechtigung, integrativen Wohlstand, nachhaltige Infrastruktur und andere globale entwicklungspolitische Prioritäten zu erzielen.[67]

Jüngste Forschungsergebnisse deuten darauf hin, dass Länder auch damit beginnen werden, KI als Instrument für die nationale Cyberverteidigung einzusetzen. KI ist ein neuer Faktor in der Cyberwaffenindustrie, da sie zu Angriffs- und Verteidigungszwecken eingesetzt werden kann. Wissenschaftler fordern daher, dass Staaten Vorschriften für den Einsatz von KI erlassen sollten, so wie sie bereits für andere Militärindustrien existieren.[68][69]

Regionale und nationale Regulation[Bearbeiten | Quelltext bearbeiten]

Die regulatorische und politische Landschaft für KI ist ein emergentes Thema in regionalen und nationalen Rechtsordnungen weltweit, zum Beispiel in der Europäischen Union[70][71] und in Russland.[72] Seit Anfang 2016 haben viele nationale, regionale und internationale Behörden begonnen, Strategien, Aktionspläne und Grundsatzpapiere zu KI zu verabschieden.[73][74] Diese Dokumente decken ein breites Spektrum an Themen ab, wie Regulierung und Governance sowie Industriestrategie, Forschung, Talente und Infrastruktur.[26][75]

Die verschiedenen Länder haben das Problem auf unterschiedliche Weise in Angriff genommen. In Bezug auf die drei größten Volkswirtschaften wurde gesagt, dass „die Vereinigten Staaten einen marktorientierten Ansatz verfolgen, China einen staatlich gesteuerten Ansatz und die EU einen rechtsgesteuerten Ansatz“[76].

Kanada[Bearbeiten | Quelltext bearbeiten]

Die Pan-Canadian Artificial Intelligence Strategy (2017) wird durch Bundesmittel in Höhe von 125 Millionen kanadischen Dollar unterstützt und verfolgt das Ziel, die Zahl herausragender KI-Forscher und qualifizierter Hochschulabsolventen in Kanada zu erhöhen, Knotenpunkte wissenschaftlicher Exzellenz in den drei großen KI-Zentren zu schaffen, eine „globale Vordenkerrolle“ in Bezug auf die wirtschaftlichen, ethischen, politischen und rechtlichen Auswirkungen von KI-Fortschritten zu entwickeln und eine nationale KI-Forschungsgemeinschaft zu unterstützen.[57] Das Canada CIFAR AI Chairs Program ist der Eckpfeiler der Strategie. Es wird über einen Zeitraum von fünf Jahren mit 86,5 Mio. kanadischen Dollar finanziert, um weltbekannte KI-Forscher anzuziehen und zu halten.[57] Die kanadische Bundesregierung ernannte im Mai 2019 einen Beirat für KI, der untersuchen soll, wie man auf Kanadas Stärken aufbauen kann, um sicherzustellen, dass KI-Fortschritte kanadische Werte wie Menschenrechte, Transparenz und Offenheit widerspiegeln. Der Beirat für KI hat eine Arbeitsgruppe eingerichtet, die sich mit der kommerziellen Nutzung von sich in kanadischem Besitz befindlicher KI und Datenanalyse befasst.[57] 2020 kündigten die Bundesregierung und die Regierung von Québec die Eröffnung des internationalen Kompetenzzentrums in Montréal für die Förderung der künstlichen Intelligenz an, das die verantwortungsvolle Entwicklung von KI vorantreiben soll.[57] Im Juni 2022 hat die kanadische Regierung die zweite Phase der Pan-Canadian Artificial Intelligence Strategy eingeleitet.[77] Im November 2022 hat Kanada den Digital Charter Implementation Act (Bill C-27) eingeführt, der drei Gesetze vorschlägt, die als holistisches Gesetzespaket für Vertrauen und Datenschutz beschrieben werden: den Consumer Privacy Protection Act (deutsch: Gesetz zum Schutz der Privatsphäre von Verbrauchern), den Personal Information and Data Protection Tribunal Act (deutsch: Gesetz zum Schutz persönlicher Daten) und den Artificial Intelligence & Data Act (AIDA; deutsch: Gesetz zu künstlicher Intelligenz und Daten).[78][79]

China[Bearbeiten | Quelltext bearbeiten]

In China wird die Regulierung der KI hauptsächlich durch den „[A] Next Generation Artificial Intelligence Development Plan“ (deutsch: Entwicklungsplan für die nächste Generation der künstlichen Intelligenz) des Staatsrats der Volksrepublik China vom 8. Juli 2017 (Dokument Nr. 35 des Staatsrats) geregelt, in dem das Zentralkomitee der Kommunistischen Partei Chinas und der Staatsrat der VR China die leitenden Organe Chinas auffordern, die Entwicklung von KI bis 2030 zu fördern. Regulierungsbemühungen zu Fragen der ethischen und rechtlichen Unterstützung der KI-Entwicklung gewinnen Momentum und die Politik gewährleistet die staatliche Kontrolle über chinesische Unternehmen und über wertvolle Daten, einschließlich der Speicherung von Daten chinesischer Nutzer innerhalb des Landes und der obligatorischen Verwendung der nationalen Standards für KI der Volksrepublik China, auch für Big Data, Cloud Computing und industrielle Software.[80][81][82] 2021 veröffentlichte China ethische Richtlinien für die Nutzung von KI in China, die besagen, dass Forschende sicherstellen müssen, dass KI allgemein anerkannte menschliche Werte achtet, stets unter menschlicher Kontrolle steht und die öffentliche Sicherheit nicht gefährdet.[83] 2023 führte China vorläufige Maßnahmen für die Verwaltung generativer KI-Dienste ein.[84]

Europarat[Bearbeiten | Quelltext bearbeiten]

Der Europarat ist eine internationale Organisation zur Förderung von Menschenrechten, Demokratie und Rechtsstaatlichkeit. Er umfasst 47 Mitgliedsstaaten, darunter alle 29 Unterzeichner der Erklärung der Europäischen Union zur Zusammenarbeit im Bereich der künstlichen Intelligenz von 2018. Der Europarat hat einen gemeinsamen Rechtsraum geschaffen, in dem die Mitglieder rechtlich verpflichtet sind, die in der Europäischen Menschenrechtskonvention verankerten Rechte zu garantieren. Speziell in Bezug auf KI „ist es das Ziel des Europarats, Überschneidungsbereiche zwischen KI und unseren Standards zu Menschenrechten, Demokratie und Rechtsstaatlichkeit zu identifizieren und relevante Lösungen zur Normsetzung oder zum Aufbau von Kapazitäten zu entwickeln“. Zu den zahlreichen einschlägigen Dokumenten, die der Europarat identifiziert hat, gehören Leitlinien, Chartas, Papiere, Berichte und Strategien.[85] Die Verfasser dieser Dokumente zur Regulierung von KI sind nicht auf einen bestimmten Bereich der Gesellschaft beschränkt, sondern umfassen Organisationen, Unternehmen, Einrichtungen und Nationalstaaten.[64]

Europäische Union[Bearbeiten | Quelltext bearbeiten]

Die EU ist eine der größten Jurisdiktionen der Welt und spielt eine aktive Rolle bei der globalen Regulierung der digitalen Technologie durch die DSGVO,[86] den Digital Services Act und den Digital Markets Act.[87][88] Für KI im Besonderen gilt der Artificial Intelligence Act von 2023 als die weitreichendste Regulierung von KI weltweit.[89][90]

Die meisten Länder der Europäischen Union (EU) haben ihre eigenen nationalen Strategien zur Regulierung von KI, die jedoch weitgehend konvergent sind.[64] Die Europäische Union orientiert sich an einer Europäischen Strategie für Künstliche Intelligenz,[91] die von einer hochrangigen Expertengruppe für Künstliche Intelligenz unterstützt wird.[92][93] Im April 2019 veröffentlichte die Europäische Kommission ihre Ethik-Leitlinien für vertrauenswürdige Künstliche Intelligenz (KI),[9] im Juni 2019 folgten ihre Politik- und Investitionsempfehlungen für vertrauenswürdige Künstliche Intelligenz.[94] Die hochrangige Expertengruppe der EU-Kommission für Künstliche Intelligenz arbeitet an vertrauenswürdiger KI. Die Kommission hat Berichte über die Sicherheits- und Haftungsaspekte von KI und über die Ethik automatisierter Fahrzeuge veröffentlicht. Im Jahr 2020 holte die EU-Kommission Stellungnahmen zu einem Vorschlag für eine KI-spezifische Gesetzgebung ein, ein Prozess der noch andauert.[64]

Am 2. Februar 2020 veröffentlichte die Europäische Kommission ihr White Paper zur Künstlichen Intelligenz: Ein europäischer Ansatz für Exzellenz und Vertrauen.[95][96][97][98] Das White Paper besteht aus zwei Hauptbausteinen, einem „Ökosystem der Exzellenz“ und einem „Ökosystem des Vertrauens“. Das „Ökosystem des Vertrauens“ umreißt den Ansatz der EU zur Schaffung eines Rechtsrahmens für KI. In ihrem Vorschlag unterscheidet die Kommission KI-Anwendungen danach, ob sie ein hohes Risiko darstellen oder nicht. Nur KI-Anwendungen mit hohem Risiko sollten in den Geltungsbereich eines künftigen EU-Rechtsrahmens fallen. Eine KI-Anwendung gilt als risikoreich, wenn sie in einem risikobehafteten Sektor (z. B. Gesundheitswesen, Verkehr oder Energie) eingesetzt wird und „in einer Weise verwendet wird, die wahrscheinlich erhebliche Risiken birgt“. Für KI-Anwendungen mit hohem Risiko gelten vor allem folgende Anforderungen: „Trainingsdaten“, „Daten und Aufzeichnungen“, „bereitzustellende Informationen“, „Robustheit und Genauigkeit“ und „menschliche Aufsicht“. Es gibt auch spezifische Anforderungen für bestimmte Anwendungen wie die biometrische Fernidentifizierung. KI-Anwendungen, die nicht als „risikoreich“ eingestuft werden, könnten durch ein freiwilliges Kennzeichnungssystem geregelt werden. Im Hinblick auf die Einhaltung und Durchsetzung der Vorschriften zieht die Kommission vorherige Konformitätsprüfungen in Betracht, die „Verfahren zur Prüfung, Inspektion oder Zertifizierung“ und/oder „Überprüfungen der Algorithmen und der in der Entwicklungsphase verwendeten Datensätze“ umfassen könnten. Eine europäische Governance-Struktur für KI in Form eines Rahmens für die Zusammenarbeit der zuständigen nationalen Behörden könnte die Umsetzung des Rechtsrahmens erleichtern.[95][99] Ein Entwurf vom Januar 2021 wurde am 14. April 2021 online veröffentlicht,[100] bevor die Kommission schließlich eine Woche später ihren offiziellen „Vorschlag für eine Verordnung mit harmonisierten Vorschriften für künstliche Intelligenz (Artificial Intelligence Act; deutsch: Gesetz über künstliche Intelligenz)“ vorlegte.[101] Kurz darauf wurde das Gesetz zur künstlichen Intelligenz offiziell vorgeschlagen.[102] Dies beinhaltet eine Feinabstimmung des risikobasierten Ansatzes von 2020 mit diesmal vier Risikokategorien: „minimal“, „begrenzt“, „hoch“ und „inakzeptabel“.[103] Der Vorschlag wurde in der öffentlichen Debatte heftig kritisiert. Wissenschaftler sind besorgt über die verschiedenen unklaren Elemente des Vorschlags – wie die weit gefasste Definition dessen, was unter KI zu verstehen ist – und befürchten unbeabsichtigte rechtliche Auswirkungen, insbesondere für schutzbedürftige Gruppen wie Patienten und Migranten.[104][105] Eine spätere Version des KI-Gesetzes wurde vom Europäischen Parlament am 14. Juni 2023 angenommen.[106] Das KI-Gesetz wird voraussichtlich Ende 2025 oder Anfang 2026 in Kraft treten.[107]

Beobachter haben ihre Besorgnis über die Häufung von Gesetzesvorschlägen unter der von der Leyen-Kommission zum Ausdruck gebracht. Die Geschwindigkeit der Gesetzesinitiativen wird teilweise von politischen Ambitionen der EU geleitet und könnte die digitalen Rechte der europäischen Bürgerinnen und Bürger, einschließlich des Rechts auf Privatsphäre,[108] gefährden, insbesondere angesichts der unsicheren Garantien für den Datenschutz durch Cybersicherheit.[93] Zu den erklärten Leitprinzipien in der breiten Palette der KI-Gesetzesvorschläge unter der von der Leyen-Kommission gehören die Ziele der strategischen Autonomie[109] und das Konzept der digitalen Souveränität.[110]

Deutschland[Bearbeiten | Quelltext bearbeiten]

Im November 2020[111] haben das deutsche Institut für Normung (DIN), das deutsche Institut für Echtheit (DKE) und das Bundesministerium für Wirtschaft und Energie die erste Ausgabe der „Deutschen Normungs-Roadmap für Künstliche Intelligenz“ (NRM KI) veröffentlicht und auf dem Digital-Gipfel der Bundesregierung der Öffentlichkeit vorgestellt.[112] Die NRM KI beschreibt Anforderungen an künftige Regelungen und Normen im Kontext von KI. Die Umsetzung der Handlungsempfehlungen soll dazu beitragen, die deutsche Wirtschaft und Wissenschaft im internationalen Wettbewerb auf dem Gebiet der Künstlichen Intelligenz zu stärken und innovationsfreundliche Rahmenbedingungen für diese aufstrebende Technologie zu schaffen. Bei der ersten Auflage handelt es sich um ein 200 Seiten starkes Dokument, das von 300 Experten verfasst wurde. Die zweite Auflage der NRM KI wurde anlässlich des Digital-Gipfels der Bundesregierung am 9. Dezember 2022 veröffentlicht.[113] Das DIN koordinierte mehr als 570 teilnehmende Experten aus den unterschiedlichsten Bereichen der Wissenschaft, Wirtschaft, Zivilgesellschaft und dem öffentlichen Sektor. Die zweite Auflage ist ein Dokument von 450 Seiten.

NRM KI deckt einerseits die Schwerpunktthemen in Bezug auf Anwendungen (z. B. Medizin, Mobilität, Energie & Umwelt, Finanzdienstleistungen, Industrieautomation) und Grundsatzfragen (z. B. KI-Klassifikation, Sicherheit, Zertifizierbarkeit, soziotechnische Systeme, Ethik) ab,[113] andererseits gibt sie einen Überblick über die zentralen Begriffe im Bereich der KI und ihres Umfelds über ein breites Spektrum von Interessengruppen und Informationsquellen hinweg. Insgesamt deckt das Dokument 116 Normungsbedarfe ab und gibt sechs zentrale Handlungsempfehlungen.[114]

G7[Bearbeiten | Quelltext bearbeiten]

Am 30. Oktober 2023 unterzeichnen die Mitglieder der G7 im Rahmen des Hiroshima-Prozesses elf Leitprinzipien für den Entwurf, die Herstellung und den Einsatz fortgeschrittener KI-Systeme sowie einen freiwilligen Verhaltenskodex für KI-Entwickelnde.[115]

Die Vereinbarung erhielt den Beifall von Ursula von der Leyen, die in ihr die Grundsätze der KI-Richtlinie wiederfindet, die sich derzeit in der Fertigstellung befindet.

Italien[Bearbeiten | Quelltext bearbeiten]

Die italienische Datenschutzbehörde verabschiedete im Oktober 2023 eine Verordnung, die drei Grundsätze für von automatisierten Systemen getroffene therapeutische Entscheidungen (Gesundheitsbereich) vorsieht: Transparenz der Entscheidungsprozesse, menschliche Aufsicht über automatisierte Entscheidungen und algorithmische Nichtdiskriminierung.[116]

Spanien[Bearbeiten | Quelltext bearbeiten]

Im Jahr 2018 verabschiedete das spanische Ministerium für Wissenschaft, Innovation und Hochschulen eine Forschungs- und Entwicklungsstrategie für künstliche Intelligenz.[117]

Mit der Bildung der zweiten Regierung von Pedro Sánchez im Januar 2020 wurden die mit den neuen Technologien verbundenen Bereiche, die seit 2018 im Wirtschaftsministerium angesiedelt waren, gestärkt. So wurde im Jahr 2020 das Staatssekretariat für Digitalisierung und künstliche Intelligenz (SEDIA) geschaffen,[118] von dem aus nach den Empfehlungen der Forschungs- und Entwicklungsstrategie für künstliche Intelligenz aus dem Jahr 2018[117] die Nationale Strategie für künstliche Intelligenz (2020) entwickelt wurde, die bereits Maßnahmen in Bezug auf die Governance künstlicher Intelligenz und die ethischen Standards, die ihre Nutzung regeln sollten, vorsieht. Dieses Projekt wurde außerdem in den Plan für Konjunktur, Transformation und Resilienz (2021) aufgenommen.

Im Laufe des Jahres 2021[118] gab die Regierung bekannt, dass diese Ideen durch eine neue staatliche Behörde entwickelt werden sollen, und der allgemeine Staatshaushalt für 2022 genehmigte ihre Einrichtung und stellte fünf Millionen Euro für ihre Entwicklung bereit.[119]

Der Ministerrat leitete auf seiner Sitzung am 13. September 2022 das Verfahren für die Wahl des Hauptsitzes der AESIA ein.[120][121] 16 spanische Provinzen reichten Bewerbungen ein, wobei sich die Regierung für La Coruña entschied, die das Gebäude „La Terraza“ vorschlug.[122]

Am 22. August 2023 genehmigte die Regierung die Geschäftsordnung der neuen Behörde,[123] womit Spanien das erste europäische Land wurde, das über eine Behörde für die Überwachung künstlicher Intelligenz verfügt und damit dem Inkrafttreten der künftigen europäischen Verordnung über künstliche Intelligenz[124] vorgreift, die für die Mitgliedstaaten die Einrichtung einer Aufsichtsbehörde in diesem Bereich vorsieht.

Vereinigtes Königreich[Bearbeiten | Quelltext bearbeiten]

Das Vereinigte Königreich unterstützte die Anwendung und Entwicklung von KI in der Wirtschaft durch die Digital Economy Strategy 2015-2018[125], die Anfang 2015 von Innovate UK als Teil der UK Digital Strategy eingeführt wurde.[125] Im öffentlichen Sektor beriet das Ministerium für Digitales, Kultur, Medien und Sport über Datenethik. Das Alan Turing Institute stellte Leitlinien für die verantwortungsvolle Gestaltung und Implementierung von KI-Systemen bereit.[126][127] Was die Cybersicherheit betrifft, so hat das National Cyber Security Centre im Jahr 2020 einen Leitfaden zu „intelligenten Sicherheitstools“ herausgegeben.[48][128] Im darauffolgenden Jahr veröffentlichte das Vereinigte Königreich seine auf zehn Jahre angelegte Nationale KI-Strategie,[129] in der Maßnahmen zur Bewertung langfristiger KI-Risiken, einschließlich KI-bezogener Katastrophenrisiken, beschrieben werden.[130]

Im März 2023 veröffentlichte das Vereinigte Königreich das White Paper A pro-innovation approach to AI regulation (deutsch: Ein innovationsfreundlicher Ansatz für die Regulierung von KI).„A pro-innovation approach to AI regulation“.[131] Dieses White Paper stellt allgemeine KI-Grundsätze vor, lässt den bestehenden Regulierungsbehörden jedoch viel Spielraum bei der Anpassung dieser Grundsätze an spezifische Bereiche wie Verkehr oder Finanzmärkte.[132] Im November 2023 veranstaltet das Vereinigte Königreich den ersten KI-Sicherheitsgipfel, wobei Premierminister Rishi Sunak das Ziel verfolgt, das Vereinigte Königreich als Vorreiter bei der Regulierung der KI-Sicherheit zu positionieren.[133][134]

Vereinigte Staaten von Amerika[Bearbeiten | Quelltext bearbeiten]

Die Diskussionen über die Regulierung von KI in den Vereinigten Staaten umfassten Themen wie die Dringlichkeit einer Regulierung von KI, die Art des bundesstaatlichen Regulierungsrahmens zur Regulierung und Förderung von KI, einschließlich der Frage, welche Behörde federführend sein sollte, die Regulierungs- und Verwaltungsbefugnisse dieser Behörde und die Frage, wie die Vorschriften angesichts des raschen technologischen Wandels aktualisiert werden können, sowie die Rolle der bundesstaatlichen Regierungen und Gerichte.[135]

Bereits 2016 hatte die Obama-Regierung damit begonnen, sich mit den Risiken und Vorschriften für künstliche Intelligenz zu befassen. In einem Bericht mit dem Titel Preparing For the Future of Artificial Intelligence (deutsch: Vorbereitung auf die Zukunft der künstlichen Intelligenz)[136] hat der Nationale Wissenschafts- und Technologierat einen Präzedenzfall geschaffen, der es Forschern ermöglicht, neue KI-Technologien mit wenigen Einschränkungen weiter zu entwickeln. In dem Bericht heißt es, dass „der Ansatz für die Regulierung von KI-gestützten Produkten zum Schutz der öffentlichen Sicherheit auf einer Bewertung der Risikoaspekte beruhen sollte. …“[137] Diese Risiken wären der Hauptgrund für die Schaffung jeglicher Form von Regulierung, wobei davon ausgegangen wird, dass jegliche bereits bestehende Regulierung nicht für die KI-Technologie gelten würde.

Der erste Hauptbericht war der National Strategic Research and Development Plan for Artificial Intelligence (deutsch: Nationaler strategischer Forschungs- und Entwicklungsplan für künstliche Intelligenz).[138] Am 13. August 2018 wurde mit Abschnitt 1051 des Fiscal Year 2019 John S. McCain National Defense Authorization Act (P.L. 115-232) die National Security Commission on Artificial Intelligence (deutsch: Nationale Sicherheitskommission für künstliche Intelligenz) eingerichtet, „um die Methoden und Mittel zu prüfen, die notwendig sind, um die Entwicklung von künstlicher Intelligenz, maschinellem Lernen und damit verbundenen Technologien mit dem Ziel voranzutreiben, die nationalen Sicherheits- und Verteidigungsbedürfnisse der Vereinigten Staaten umfassend zu erfüllen“.[139] Die Nationale Sicherheitskommission für künstliche Intelligenz ist mit der Steuerung der Regulierung sicherheitsrelevanter KI betraut.[140] Der Artificial Intelligence Initiative Act (S.1558) ist ein Gesetzentwurf, der eine Bundesinitiative zur Beschleunigung der Forschung und Entwicklung im Bereich der künstlichen Intelligenz vorsieht, unter anderem für die wirtschaftliche und nationale Sicherheit der Vereinigten Staaten.[141][142]

Am 7. Januar 2019 veröffentlichte das Büro für Wissenschafts- und Technologiepolitik des Weißen Hauses im Anschluss an eine Executive Order zum Erhalt der amerikanischen Führungsrolle im Bereich der künstlichen Intelligenz[143] den Entwurf eines Leitfadens für die Regulierung von Anwendungen der künstlichen Intelligenz,[144] der zehn Grundsätze für US-Behörden bei der Entscheidung darüber enthält, ob und wie KI reguliert werden soll.[145] Als Reaktion darauf hat das National Institute of Standards and Technology ein Positionspapier veröffentlicht,[146] und das Defense Innovation Board hat Empfehlungen zur ethischen Nutzung von KI herausgegeben.[47] Ein Jahr später rief die Regierung in einem weiteren Entwurf ihres Leitfadens zur Regulierung von Anwendungen der Künstlichen Intelligenz zur Stellungnahme auf.[147]

Zu den anderen Behörden, die sich mit der Regulierung von KI befassen, gehört die Food and Drug Administration,[41] die Wege zur Regulierung des Einsatzes von KI in der medizinischen Bildgebung geschaffen hat.[40] Der Nationale Wissenschafts- und Technologierat hat außerdem den National Artificial Intelligence Research and Development Strategic Plan (deutsch: Nationaler Strategieplan für Forschung und Entwicklung im Bereich der künstlichen Intelligenz) veröffentlicht,[148] der von der Öffentlichkeit geprüft wurde und Empfehlungen zur weiteren Verbesserung im Hinblick auf die Verwirklichung vertrauenswürdiger KI enthält.[149]

Im März 2021 veröffentlichte die Nationale Sicherheitskommission für künstliche Intelligenz ihren Abschlussbericht.[150] In dem Bericht heißt es: „Fortschritte in der KI, einschließlich der Realisierung allgemeinerer KI-Fähigkeiten in einer oder mehreren Dimensionen, werden voraussichtlich neue Fähigkeiten und Anwendungen ermöglichen. Einige dieser Fortschritte könnten zu Wendepunkten oder Kompetenzensprüngen führen. Solche Fortschritte können ferner neue Bedenken und Risiken mit sich bringen und neue Strategien, Empfehlungen und technische Fortschritte erforderlich machen, um sicherzustellen, dass die Systeme mit den Zielen und Werten wie u. a. Sicherheit, Robustheit und Vertrauenswürdigkeit, übereinstimmen. Die USA sollten die Fortschritte im Bereich der KI überwachen und die notwendigen Investitionen in Technologie und Politik tätigen, um sicherzustellen, dass KI-Systeme und ihre Nutzung mit unseren Zielen und Werten übereinstimmen.“

Die Senatoren Rob Portman und Gary Peters legten im Juni 2022 den Global Catastrophic Risk Mitigation Act vor. Dieser überparteiliche Gesetzesentwurf „würde auch dazu beitragen, der Gefahr entgegenzuwirken, dass künstliche Intelligenz ... in einer Weise missbraucht wird, die ein katastrophales Risiko darstellen könnte“.[151][152] Am 4. Oktober 2022 stellte Präsident Joe Biden eine neue KI-Rechtsvorschrift vor,[153] die fünf Schutzmaßnahmen umreißt, die Amerikaner im Zeitalter der KI haben sollten: 1. sichere und wirksame Systeme, 2. Schutz vor algorithmischer Diskriminierung, 3. Schutz persönlicher Daten, 4. Information und Transparenz und 5. Menschliche Alternativen, Reflexion und Ausweichmöglichkeiten. Der Gesetzentwurf wurde im Oktober 2021 vom Office of Science and Technology Policy (OSTP) eingebracht, einer Abteilung der US-Regierung, die den Präsidenten in Fragen der Wissenschaft und Technologie berät.[154]

Im Januar 2023 wurde das New York City Bias Audit Law (Local Law 144[155]) vom Stadtrat von New York City verabschiedet. Das ursprünglich für den 1. Januar 2023 vorgesehene Inkrafttreten des Local Law 144 wurde aufgrund der zahlreichen Kommentare, die während der öffentlichen Anhörung zu den vom Department of Consumer and Worker Protection (DCWP) vorgeschlagenen Regeln zur Klärung der Anforderungen des Gesetzes eingingen, verschoben. Es trat schließlich am 5. Juli 2023 in Kraft.[156] Ab diesem Datum ist es Unternehmen, die in New York City tätig sind und Mitarbeiter einstellen, untersagt, automatisierte Tools zur Einstellung von Bewerbenden oder zur Beförderung von Mitarbeitenden zu verwenden, es sei denn, die Tools wurden von unabhängiger Seite auf mögliche Verzerrungen geprüft.

Im Juli 2023 sicherte sich die Biden-Harris-Administration freiwillige Verpflichtungen von sieben Unternehmen – Amazon, Anthropic, Google, Inflection, Meta, Microsoft und Open AI – zum Umgang mit den mit KI verbundenen Risiken. Die Unternehmen verpflichteten sich, dafür zu sorgen, dass KI-Produkte vor der Veröffentlichung sowohl internen als auch externen Sicherheitstests unterzogen werden; Informationen über das Management von KI-Risiken mit der Industrie, Regierungen, der Zivilgesellschaft und der Wissenschaft zu teilen; der Cybersicherheit Vorrang einzuräumen und unternehmenseigene KI-Systemkomponenten zu schützen; Mechanismen zu entwickeln, um die Nutzer darüber zu informieren, dass es sich um KI-Inhalte handelt, z. B. durch Wasserzeichen; öffentlich über die Fähigkeiten, Grenzen und Einsatzbereiche ihrer KI-Systeme zu berichten; der Erforschung gesellschaftlicher Risiken durch KI, einschließlich Voreingenommenheit, Diskriminierung und Datenschutzbedenken, Vorrang einzuräumen und KI-Systeme zur Bewältigung gesellschaftlicher Herausforderungen zu entwickeln, die von der Krebsprävention bis zur Eindämmung des Klimawandels reichen. Im September 2023 haben sich diesen Verpflichtungen acht weitere Unternehmen – Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI und Stability AI – angeschlossen.[157][158]

Die Biden-Administration kündigte im Oktober 2023 an, dass sie eine Verordnung erlassen würde, die die Kaufkraft der US-Regierung als Hebel für die Gestaltung von KI-Regulierungen nutzen würde, was auf eine proaktive Haltung der Regierung bei der Regulierung von KI-Technologien hindeutet.[159] Am 30. Oktober 2023 veröffentlichte Präsident Biden diese Verordnung zur sicheren und vertrauenswürdigen künstlichen Intelligenz (engl.: Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence). Die Verordnung befasst sich mit einer Vielzahl von Themen, wie z. B. der Konzentration auf Standards für kritische Infrastrukturen, KI-gestützte Cybersicherheit und staatlich finanzierte Projekte im Bereich der synthetischen Biologie.[160]

Die Verordnung ermächtigt verschiedene Behörden und Ministerien der US-Regierung, darunter das Energie- und das Verteidigungsministerium, bestehende Verbraucherschutzgesetze auf die KI-Entwicklung anzuwenden.[161]

Die Executive Order baut auf früheren Vereinbarungen der Regierung mit KI-Unternehmen auf, um neue Initiativen für „Red-Teaming“ oder Stresstests von KI-Grundlagenmodellen mit doppeltem Verwendungszweck einzurichten, insbesondere von solchen, die potenziell Sicherheitsrisiken bergen, wobei Daten und Ergebnisse mit der US-Regierung geteilt werden.

Die Verordnung erkennt außerdem die sozialen Herausforderungen von KI an und fordert Unternehmen, die KI-Grundlagenmodelle mit doppeltem Verwendungszweck entwickeln, auf, diese gesellschaftlichen Probleme zu berücksichtigen. So heißt es in der Verordnung beispielsweise, dass KI „die Qualität der Arbeitsplätze nicht verschlechtern“ und „keine Beeinträchtigungen des Arbeitsmarktes verursachen“ darf. Darüber hinaus schreibt Bidens Verordnung vor, dass KI „Gleichheit und Bürgerrechte“ fördern muss und Randgruppen nicht benachteiligen darf.[162] Außerdem wird gefordert, dass die Grundlagenmodelle „Wasserzeichen“ enthalten sollen, damit die Öffentlichkeit zwischen menschlichen und KI-generierten Inhalten unterscheiden kann, was bei Forschenden, die sich mit der Erkennung von Fälschungen befassen, zu Kontroversen und Kritik geführt hat.[163]

Regulierung vollautonomer Waffensysteme[Bearbeiten | Quelltext bearbeiten]

Rechtliche Fragen im Zusammenhang mit tödlichen autonomen Waffensystemen (LAWs), insbesondere die Einhaltung des Kriegsrechts, werden seit 2013 im Rahmen der Konvention über bestimmte konventionelle Waffen erörtert.[164] 2014, 2015 und 2016 fanden informelle Expertentreffen statt. 2016 wurde eine Gruppe von Regierungssachverständigen den Vereinten Nationen eingesetzt, um das Thema weiter zu erörtern. Eine Reihe von Leitprinzipien zu LAWs, die von dieser Gruppe empfohlen wurden, wurde 2018 angenommen.[165]

Im Jahr 2016 veröffentlichte China ein Positionspapier, in dem es die Angemessenheit des bestehenden Völkerrechts im Hinblick auf den Einsatz vollautonomer Waffen in Frage stellte. Damit war es das erste ständige Mitglied des UN-Sicherheitsrats, das dieses Thema ansprach,[49] was zu Vorschlägen für eine globale Regulierung führte.[166] Die Möglichkeit eines Moratoriums oder präventiven Verbots der Entwicklung und des Einsatzes von LAWs wurde auch von anderen nationalen Delegationen im Rahmen der Konvention über bestimmte konventionelle Waffen mehrfach angesprochen und wird von der Campaign to Stop Killer Robots – einer Koalition von Nichtregierungsorganisationen – nachdrücklich befürwortet.[167] Die US-Regierung ist der Auffassung, dass das geltende humanitäre Völkerrecht in der Lage ist, die Entwicklung oder den Einsatz von LAWS zu regeln.[168] Der Congressional Research Service gab 2023 an, dass die USA keine LAWs in ihrem Bestand haben, dass ihre Politik aber die Entwicklung und den Einsatz von LAWs nicht verbietet.[169]

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Nemitz, Paul (2018): Constitutional democracy and technology in the age of artificial intelligence. In: Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. Band 376, Nummer 2133, S. 20180089. Bibcode:2018RSPTA.37680089N. doi:10.1098/rsta.2018.0089. PMID 30323003.
  2. Cath, Corinne (2018): Governing artificial intelligence: ethical, legal and technical opportunities and challenges. In: Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. Band 376, Nummer 2133, S. 20180080. Bibcode:2018RSPTA.37680080C. doi:10.1098/rsta.2018.0080. PMC 6191666 (freier Volltext). PMID 30322996.
  3. a b c Buiten, Miriam C. (2019): Towards Intelligent Regulation of Artificial Intelligence. In: European Journal of Risk Regulation. Band 10, Nummer 1, S. 41–59. doi:10.1017/err.2019.8.
  4. Erdélyi, Olivia J.; Goldsmith, Judy (2020): Regulating Artificial Intelligence: Proposal for a Global Solution. arXiv:2005.11072 cs.CY.
  5. Ebers, Martin (2020): Regulating AI and Robotics: Ethical and Legal Challenges. In: Algorithms and Law. Cambridge University Press. S. 37–99. ISBN 978-1-108-34784-6.
  6. Satariano, Adam (8. Dezember 2023): E.U. Agrees on Landmark Artificial Intelligence Rules - The agreement over the A.I. Act solidifies one of the world's first comprehensive attempts to limit the use of artificial intelligence. In: The New York Times. Archiviert aus dem Original am 9. Dezember 2023. Abgerufen am 9. Dezember 2023.
  7. Tallberg, Jonas; Erman, Eva; Furendal, Markus; Geith, Johannes; Klamberg, Mark; Lundgren, Magnus (2023): Global Governance of Artificial Intelligence: Next Steps for Empirical and Normative Research. In: International Studies Review. doi:10.1093/isr/viad040.
  8. M. Héder (2020): A criticism of AI ethics guidelines. In: Információs Társadalom. Band 20, Nummer 4, S. 57–73. doi:10.22503/inftars.XX.2020.4.5. S2CID 233252939.
  9. a b Ethics guidelines for trustworthy AI. Europäische Kommission. 2019.
  10. Curtis, Caitlin; Gillespie, Nicole; Lockey, Steven (2022): AI-deploying organizations are key to addressing 'perfect storm' of AI risks. In: AI and Ethics. Band 3, Nummer 1, S. 145–153. doi:10.1007/s43681-022-00163-7. ISSN 2730-5961. PMC 9127285 (freier Volltext). PMID 35634256.
  11. An Ethical Approach to AI is an Absolute Imperative, Andreas Kaplan. Abgerufen am 26. April 2021.
  12. a b c d e Sotala, Kaj; Yampolskiy, Roman V (2014): Responses to catastrophic AGI risk: a survey. In: Physica Scripta. Band 90, Nummer 1, S. 018001. doi:10.1088/0031-8949/90/1/018001. ISSN 0031-8949.
  13. a b Vincent, James (3. April 2023): AI is entering an era of corporate control. In: The Verge. Abgerufen am 19. Juni 2023.
  14. Artificial Intelligence Index Report 2023/Chapter 6: Policy and Governance (PDF; 1,7 MB), 2023. Abgerufen am 19. Juni 2023.
  15. Arthur L. Samuel: Some Moral and Technical Consequences of Automation—A Refutation. In: Science. 1960, Band 132, Nummer 3429, S. 741–742 doi:10.1126/science.132.3429.741.
  16. a b Elon Musk Warns Governors: Artificial Intelligence Poses 'Existential Risk'. In: NPR.org. Abgerufen am 27. November 2017.
  17. Gibbs, Samuel (17. Juli 2017): Elon Musk: regulate AI to combat 'existential threat' before it's too late. In: The Guardian. Abgerufen am 27. November 2017.
  18. Kharpal, Arjun (7. November 2017): A.I. is in its 'infancy' and it's too early to regulate it, Intel CEO Brian Krzanich says. In: CNBC. Abgerufen am 27. November 2017.
  19. Kaplan, Andreas; Haenlein, Michael (2019): Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence. In: Business Horizons. Band 62, S. 15–25. doi:10.1016/j.bushor.2018.08.004. S2CID 158433736.
  20. Edwards, Benj (17. Mai 2023). Poll: AI poses risk to humanity, according to majority of Americans. Ars Technica. Abgerufen am 19. Juni 2023.
  21. Kasperowicz, Peter (1. Mai 2023): Regulate AI? GOP much more skeptical than Dems that government can do it right: poll. Fox News. Abgerufen am 19. Juni 2023.
  22. Fox News Poll In: Fox News. 2023. (PDF; 0,5 MB). Abgerufen am 19. Juni 2023.
  23. Barfield, Woodrow; Pagallo, Ugo (2018). Research handbook on the law of artificial intelligence. Cheltenham, UK: Edward Elgar Publishing. ISBN 978-1-78643-904-8. OCLC 1039480085.
  24. a b Wirtz, Bernd W.; Weyerer, Jan C.; Geyer, Carolin (2018): Artificial Intelligence and the Public Sector—Applications and Challenges. In: International Journal of Public Administration. Band 42, Nummer 7, S. 596–615. doi:10.1080/01900692.2018.1498103. ISSN 0190-0692. S2CID 158829602.
  25. Mantelero, Alessandro; Esposito, Maria Samantha (2021): An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems. In: Computer Law & Security Review. Band 41, S. 105561. doi:10.1016/j.clsr.2021.105561. ISSN 0267-3649. S2CID 237588123.
  26. a b Artificial intelligence in society. Paris: Organisation for Economic Co-operation and Development. 11. Juni 2019. ISBN 978-92-64-54519-9. OCLC 1105926611.
  27. Kamyshansky, Vladimir P.; Rudenko, Evgenia Y.; Kolomiets, Evgeniy A.; Kripakova, Dina R. (2020): Revisiting the Place of Artificial Intelligence in Society and the State. In: Artificial Intelligence: Anthropogenic Nature vs. Social Origin, Advances in Intelligent Systems and Computing, Cham: Springer International Publishing, Bd. 1100, S. 359–364, doi:10.1007/978-3-030-39319-9_41, ISBN 978-3-030-39318-2, S2CID 213070224
  28. Special Issue on Soft Law Governance of Artificial Intelligence: IEEE Technology and Society Magazine publication information. In: IEEE Technology and Society Magazine. Band 40, Nummer 4, C2. Dezember 2021. doi:10.1109/MTS.2021.3126194.
  29. a b c d e Marchant, Gary. "Soft Law" Governance of AI (PDF; 0,1 MB). AI Pulse. AI PULSE Papers. Abgerufen am 28. Februar 2023.
  30. a b c Johnson, Walter G.; Bowman, Diana M. (Dezember 2021): A Survey of Instruments and Institutions Available for the Global Governance of Artificial Intelligence. In: IEEE Technology and Society Magazine. Band 40, Nummer 4, S. 68–76. doi:10.1109/MTS.2021.3123745. S2CID 245053179.
  31. Sutcliffe, Hillary R.; Brown, Samantha (Dezember 2021): Trust and Soft Law for AI. In: IEEE Technology and Society Magazine. Band 40, Nummer 4, S. 14–24. doi:10.1109/MTS.2021.3123741. S2CID 244955938.
  32. a b Schmit, C. D.; Doerr, M. J.; Wagner, J. K. (2023): Leveraging IP for AI governance. In: Science. Band 379, Nummer 6633, S. 646–648. Bibcode:2023Sci...379..646S. doi:10.1126/science.add2202. PMID 36795826. S2CID 256901479.
  33. Fjeld, Jessica; Achten, Nele; Hilligoss, Hannah; Nagy, Adam; Srikumar, Madhu (15.01.2020). Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI (Report). Berkman Klein Center for Internet & Society.
  34. Wirtz, Bernd W.; Weyerer, Jan C.; Sturm, Benjamin J. (15. April 2020): The Dark Sides of Artificial Intelligence: An Integrated AI Governance Framework for Public Administration. In: International Journal of Public Administration. Band 43, Nummer 9, S. 818–829. doi:10.1080/01900692.2020.1749851. ISSN 0190-0692. S2CID 218807452.
  35. a b Bredt, Stephan (2019): Artificial Intelligence (AI) in the Financial Sector—Potential and Public Strategies. In: Frontiers in Artificial Intelligence. Band 2, Nummer 16. doi:10.3389/frai.2019.00016. ISSN 2624-8212. PMC 7861258 (freier Volltext). PMID 33733105.
  36. a b c White Paper: On Artificial Intelligence – A European approach to excellence and trust (PDF). Brüssel: Europäische Kommission. 2020. S. 1.
  37. Wirtz, Bernd W.; Müller, Wilhelm M. (2018): An integrated artificial intelligence framework for public management. Public Management Review. Band 21, Nummer 7, S. 1076–1100. doi:10.1080/14719037.2018.1549268. ISSN 1471-9037. S2CID 158267709.
  38. Reisman, Dillon; Schultz, Jason; Crawford, Kate; Whittaker, Meredith (2018). Algorithmic impact assessments: A practical framework for public agency accountability (Memento vom 14. Juni 2020 im Internet Archive) (PDF). New York: AI Now Institute. Archiviert aus dem Original (PDF) am 14. Juli 2020. Abgerufen am 28. April 2020.
  39. a b Towards Responsible Artificial Intelligence Innovation. UNICRI. Juli 2020. Abgerufen am 18. Juli 2022.
  40. a b Kohli, Ajay; Mahajan, Vidur; Seals, Kevin; Kohli, Ajit; Jha, Saurabh (2019): Concepts in U.S. Food and Drug Administration Regulation of Artificial Intelligence for Medical Imaging. In: American Journal of Roentgenology. Band 213, Nummer 4, S. 886–888. doi:10.2214/ajr.18.20410. ISSN 0361-803X. PMID 31166758. S2CID 174813195.
  41. a b Hwang, Thomas J.; Kesselheim, Aaron S.; Vokinger, Kerstin N. (2019): Lifecycle Regulation of Artificial Intelligence– and Machine Learning–Based Software Devices in Medicine. JAMA. Band 322, Nummer 23, S. 2285–2286. doi:10.1001/jama.2019.16842. ISSN 0098-7484. PMID 31755907. S2CID 208230202.
  42. Sharma, Kavita; Manchikanti, Padmavati (2020): Regulation of Artificial Intelligence in Drug Discovery and Health Care. In: Biotechnology Law Report. Band 39, Nummer 5, S. 371–380. doi:10.1089/blr.2020.29183.ks. ISSN 0730-031X. S2CID 225540889.
  43. Petkus, Haroldas; Hoogewerf, Jan; Wyatt, Jeremy C (2020): What do senior physicians think about AI and clinical decision support systems: Quantitative and qualitative analysis of data from specialty societies. In: Clinical Medicine. Band 20, Nummer 3, S. 324–328. doi:10.7861/clinmed.2019-0317, ISSN 1470-2118. PMC 7354034 (freier Volltext). PMID 32414724.
  44. Cheng, Jerome Y.; Abel, Jacob T.; Balis, Ulysses G.J.; McClintock, David S.; Pantanowitz, Liron (2021): Challenges in the Development, Deployment, and Regulation of Artificial Intelligence in Anatomic Pathology. In: The American Journal of Pathology. Band 191, Nummer 10, S. 1684–1692. doi:10.1016/j.ajpath.2020.10.018. ISSN 0002-9440. PMID 33245914. S2CID 227191875.
  45. a b c Gurkaynak, Gonenc; Yilmaz, Ilay; Haksever, Gunes (2016): Stifling artificial intelligence: Human perils. In: Computer Law & Security Review. Band 32, Nummer 5, S. 749–758. doi:10.1016/j.clsr.2016.05.003. ISSN 0267-3649.
  46. Iphofen, Ron; Kritikos, Mihalis (2019): Regulating artificial intelligence and robotics: ethics by design in a digital society. In: Contemporary Social Science. Band 16, Nummer 2, S. 170–184. doi:10.1080/21582041.2018.1563803. ISSN 2158-2041. S2CID 59298502
  47. a b AI principles: Recommendations on the ethical use of artificial intelligence by the Department of Defense (PDF; 0,2 MB). Washington, DC: United States Defense Innovation Board. 2019. OCLC 1126650738.
  48. a b c Babuta, Alexander; Oswald, Marion; Janjeva, Ardi (2020). Artificial Intelligence and UK National Security: Policy Considerations (Memento vom 2. Mai 2020 im Internet Archive) (PDF). London: Royal United Services Institute. Archiviert aus dem Original (PDF) am 2. Mai 2020. Abgerufen am 8. April 2020.
  49. a b Robots with Guns: The Rise of Autonomous Weapons Systems. In: Snopes.com. 21. April 2017. Abgerufen am 24. Dezember 2017.
  50. Bento, Lucas (2017): No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law. In: Harvard Scholarship Depository. Abgerufen am 14. September 2019.
  51. Kissinger, Henry (1. November 2021): The Challenge of Being Human in the Age of AI. In: The Wall Street Journal.
  52. a b Barrett, Anthony M.; Baum, Seth D. (2016): A model of pathways to artificial superintelligence catastrophe for risk and decision analysis. In: Journal of Experimental & Theoretical Artificial Intelligence. Band 29, Nummer 2, S. 397–414. arXiv:1607.07730. doi:10.1080/0952813x.2016.1186228. ISSN 0952-813X. S2CID 928824.
  53. Boyd, Matthew; Wilson, Nick (2017): Rapid developments in Artificial Intelligence: how might the New Zealand government respond?. In: Policy Quarterly. Band 13, Nummer 4. doi:10.26686/pq.v13i4.4619. ISSN 2324-1101.
  54. Innovation, Science and Economic Development Canada (16. Mai 2019). Declaration of the International Panel on Artificial Intelligence. In: gcnws. Abgerufen am 29. März 2020.
  55. Tom Simonite: The world has a plan to rein in AI—but the US doesn't like it. In: Wired. Vom 8. Januar 2020, abgerufen am 29. März 2020.
  56. a b AI Regulation: Has the Time Arrived?. In: InformationWeek. 24. Februar 2020. Abgerufen am 29. März 2020.
  57. a b c d e f g UNESCO Science Report: the Race Against Time for Smarter Development. Paris: UNESCO. 11. Juni 2021. ISBN 978-92-3-100450-6.
  58. Community. In: GPAI. Archiviert (Memento vom 30. März 2023 im Internet Archive) aus dem Original am 30. März 2023.
  59. AI-Principles Overview. In: OECD.AI. Abgerufen am 20. Oktober 2023.
  60. G20 Ministerial Statement on Trade and Digital Economy (PDF; 0,2 MB). Tsukuba City, Japan: G20. 2019.
  61. International AI ethics panel must be independent. In: Nature. Band 572, Nummer 7770, 2019, S. 415. Bibcode:2019Natur.572R.415.. doi:10.1038/d41586-019-02491-x. PMID 31435065.
  62. Guidelines for AI Procurement (PDF; 0,5 MB). Cologny/Genf: World Economic Forum. 2019.
  63. High-Level Event: Artificial Intelligence and Robotics - Reshaping the Future of Crime, Terrorism and Security. In: UNICRI. Abgerufen am 18. Juli 2022.
  64. a b c d NíFhaoláin, Labhaoise; Hines, Andrew; Nallur, Vivek (2020). Assessing the Appetite for Trustworthiness and the Regulation of Artificial Intelligence in Europe (PDF; 0,5 MB). Dublin: Technological University Dublin, School of Computer Science, Dublin. S. 1–12. CC-BY-4.0
  65. Recommendation on the ethics of artificial intelligence. In: UNESCO. 27. Februar 2020. Abgerufen am 18. Juli 2022.
  66. Reinmar Nindler: The United Nation’s Capability to Manage Existential Risks with a Focus on Artificial Intelligence. In: International Community Law Review. 2019, Band 21, Nummer 1, S. 5–34 doi:10.1163/18719732-12341388.
  67. About. In: AI for Good. Abgerufen am 6. April 2023.
  68. Taddeo, Mariarosaria; Floridi, Luciano (April 2018). Regulate artificial intelligence to avert cyber arms race. In: Nature. Band 556, Nummer 7701, S. 296–298. doi:10.1038/d41586-018-04602-6.
  69. Grafik - Artificial Intelligence and Robotics. UNICRI. Retrieved 2020-08-08.
  70. Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body. Regulation of artificial intelligence in selected jurisdictions. LCCN 2019668143. OCLC 1110727808.
  71. Anna V. Popova, Svetlana S. Gorokhova, Marianna G. Abramova, Irina V. Balashkina: The System of Law and Artificial Intelligence in Modern Russia: Goals and Instruments of Digital Modernization. In: Studies in systems, decision and control. 2021, S. 89–96 doi:10.1007/978-3-030-56433-9_11.
  72. OECD Observatory of Public Sector Innovation - Ai Strategies and Public Sector Components. Abgerufen am 4. Mai 2020.
  73. Berryhill, Jamie; Heang, Kévin Kok; Clogher, Rob; McBride, Keegan (2019). Hello, World: Artificial Intelligence and its Use in the Public Sector (PDF; 4,8 MB). Paris: OECD Observatory of Public Sector Innovation.
  74. Campbell, Thomas A. (2019). Artificial Intelligence: An Overview of State Initiatives (Memento vom 31. März 2020 im Internet Archive) (PDF). Evergreen, CO: FutureGrasp, LLC. Archiviert aus dem Original (PDF) am 31. März 2020.
  75. Bradford, Anu (27.062023). The Race to Regulate Artificial Intelligence. In: Foreign Affairs. ISSN 0015-7120. Abgerufen am 11. August 2023.
  76. Australia needs a national approach to AI strategy. In: Information Age. Abgerufen am 8. November 2023.
  77. Innovation, Science and Economic Development Canada (22. Juli 2022): Government of Canada launches second phase of the Pan-Canadian Artificial Intelligence Strategy. In: www.canada.ca. Abgerufen am 24. Oktober 2023.
  78. Canada, Government of (18.08.2022): Bill C-27 summary: Digital Charter Implementation Act, 2022. In: ised-isde.canada.ca. Abgerufen am 24. Oktober 2023.
  79. Government Bill (House of Commons) C-27 (44-1) - First Reading - Digital Charter Implementation Act, 2022 - Parliament of Canada. In: www.parl.ca. Abgerufen am 12. Juni 2022.
  80. State Council China. "New Generation of Artificial Intelligence Development Plan (Memento vom 7. Juni 2023 im Internet Archive)". www.unodc.org. Archiviert aus dem Original am 7. Juni 2023. Abgerufen am 18. Juni 2022.
  81. Department of International Cooperation Ministry of Science and Technology (September 2017). "Next Generation Artificial Intelligence Development Plan Issued by State Council (Memento vom 21. Januar 2022 im Internet Archive)" (PDF). China Science & Technology Newsletter (17): 2–12. Archiviert aus dem Original (PDF) am 21. Januar 2022 – über das Außenministerium der Volksrepublik China.
  82. Wu, Fei; Lu, Cewu; Zhu, Mingjie; Chen, Hao; Zhu, Jun; Yu, Kai; Li, Lei; Li, Ming; Chen, Qianfeng; Li, Xi; Cao, Xudong (2020): Towards a new generation of artificial intelligence in China. In: Nature Machine Intelligence. Band 2, Nummer 6, S. 312–316. doi:10.1038/s42256-020-0183-4. ISSN 2522-5839. S2CID 220507829
  83. Ethical Norms for New Generation Artificial Intelligence Released. In: Center for Security and Emerging Technology. Abgerufen am 18. Juni 2022.
  84. Paolo Confino: China's new A.I. regulations offers blueprint for U.S. In: fortune.com. 14. Juli 2023, abgerufen am 17. Januar 2024 (englisch).
  85. Council of Europe and Artificial Intelligence. In: Artificial Intelligence. Abgerufen am 29. Juni 2021.
  86. Peukert, Christian; Bechtold, Stefan; Kretschmer, Tobias; Batikas, Michail (30.09.2020). Regulatory export and spillovers: How GDPR affects global markets for data. In: CEPR. Abgerufen am 26. Oktober 2023.
  87. Coulter, Martin (24.08.2023): Big Tech braces for EU Digital Services Act regulations. In: Reuters. Abgerufen am 26. Oktober 2023.
  88. Europe's new role in digital regulation. In: lemonde.fr. 28. August 2023, abgerufen am 17. Januar 2024 (englisch).
  89. Adam Satariano: Europeans Take a Major Step Toward Regulating A.I. In: nytimes.com. 14. Juni 2023, abgerufen am 17. Januar 2024 (englisch).
  90. Ryan Browne: EU lawmakers pass landmark artificial intelligence regulation. In: cnbc.com. 14. Juni 2023, abgerufen am 17. Januar 2024 (englisch).
  91. Anonymous (25. April 2018). Communication Artificial Intelligence for Europe. In: Shaping Europe's digital future - European Commission. Abgerufen am 5. Mai 2020.
  92. smuhana (14. Juli 2018): High-Level Expert Group on Artificial Intelligence. In: Shaping Europe's digital future - European Commission. Abgerufen am 5. Mai 2020.
  93. a b Andraško, Jozef; Mesarčík, Matúš; Hamuľák, Ondrej (2021). The regulatory intersections between artificial intelligence, data protection and cyber security: challenges and opportunities for the EU legal framework. In: AI & Society. Band 36, Nummer 2, S 623–636. doi:10.1007/s00146-020-01125-5. ISSN 0951-5666. S2CID 230109912.
  94. Policy and investment recommendations for trustworthy Artificial Intelligence. In: Shaping Europe's digital future - European Commission. 26. Juli 2019. Abgerufen am 5. Mai 2020.
  95. a b European Commission. (2020). White paper on artificial intelligence: a European approach to excellence and trust. OCLC 1141850140.
  96. Does This Change Everything? Coronavirus and your private data. In: European Investment Bank. Archiviert (Memento vom 7. Juni 2021 im Internet Archive) aus dem Original am 7. Juni 2021. Abgerufen am 7. Juli 2021.
  97. White Paper on Artificial Intelligence – a European approach to excellence and trust | Shaping Europe's digital future. In: digital-strategy.ec.europa.eu. 19. Februar 2020. Abgerufen am 7. Juli 2021.
  98. Broadbent, Meredith (17. März 2021): What's Ahead for a Cooperative Regulatory Agenda on Artificial Intelligence?. In: www.csis.org. Archiviert (Memento vom 7. Juni 2021 im Internet Archive) aus dem Original am 7. Juni 2021. Abgerufen am 7. Juli 2021.
  99. Regulating AI in the EU. In: Mason Hayes & Curran. Abgerufen am 30. März 2023.
  100. Melissa Heikkilä: POLITICO AI: Decoded: The EU’s AI rules — Finland talks to machines — Facebook’s fairness project – POLITICO. In: politico.eu. 14. April 2021, abgerufen am 17. Januar 2024 (englisch).
  101. European Commission (21. April 2021): Europe fit for the Digital Age: Commission proposes new rules and actions for excellence and trust in Artificial Intelligence (Pressemitteilung). Abgerufen am 14. Mai 2021.
  102. Pery, Andrew (6. Oktober 2021): Trustworthy Artificial Intelligence and Process Mining: Challenges and Opportunities". DeepAI. Abgerufen am 27. Februar 2022.
  103. Ryan Browne: Europe takes aim at ChatGPT with what might soon be the West’s first A.I. law. Here's what it means. In: cnbc.com. 15. Mai 2023, abgerufen am 17. Januar 2024 (englisch).
  104. Veale, Michael; Borgesius, Frederik Zuiderveen (2021): Demystifying the Draft EU Artificial Intelligence Act — Analysing the good, the bad, and the unclear elements of the proposed approach. In: Computer Law Review International. Band 22, Nummer 4, S. 97–112. arXiv:2107.03721. doi:10.9785/cri-2021-220402. ISSN 2194-4164. S2CID 235765823.
  105. van Kolfschooten, Hannah (Januar 2022): EU regulation of artificial intelligence: Challenges for patients' rights. In: Common Market Law Review. Band 59, Nummer 1, S. 81–112. doi:10.54648/COLA2022005. S2CID 248591427.
  106. On the back of its AI Act, the EU invests in risky software to secure borders. In: Le Monde.fr. 23. Juli 2023. Abgerufen am 25. Oktober 2023.
  107. Kostiantyn Ponomarov, Cipp/E: The EU AI Act Overview: What's Coming for Businesses after the EU Parliament Vote. In: legalnodes.com. 15. Juni 2023, abgerufen am 17. Januar 2024 (englisch).
  108. Natale, Lara (Februar 2022): EU's digital ambitions beset with strategic dissonance. In: Encompass. Abgerufen am 25. Februar 2022.
  109. Bertuzzi, Luca; Killeen, Molly (17. September 2021): Digital Brief powered by Google: make it or break it, Chips Act, showing the path. In: Euractiv. Abgerufen am 25. Februar 2022.
  110. Propp, Kenneth (7. Februar 2022): France's new mantra: liberty, equality, digital sovereignty. In: Atlantic Council. Abgerufen am 25. Februar 2022.
  111. Klimaschutz, BMWK-Bundesministerium für Wirtschaft und Klima: "KI – Made in Germany" etablieren. In: www.bmwk.de (in German). Abgerufen am 12. Juni 2023.
  112. DIN, DKE und BMWi veröffentlichen Normungsroadmap für Künstliche Intelligenz. In: all-electronics (in German). Abgerufen am 12. Juni 2023.
  113. a b Runze, Gerhard; Haimerl, Martin; Hauer, Marc; Holoyad, Taras; Obert, Otto; Pöhls, Henrich; Tagiew, Rustam; Ziehn, Jens (2023): Ein Werkzeug für eine gemeinsame KI-Terminologie - Das AI-Glossary als Weg aus Babylon. In: Java Spektrum (auf Deutsch) (3): S. 42–46.
  114. Normungsroadmap Künstliche Intelligenz. In: www.dke.de (in German). Abgerufen am 12. Juni 2023.
  115. Hiroshima Process International Guiding Principles for Advanced AI system | Shaping Europe's digital future. In: digital-strategy.ec.europa.eu. 30. Oktober 2023. Abgerufen am 1. November 2023.
  116. Marzio Bartoloni: Cure e intelligenza artificiale: la privacy e il rischio dell’algoritmo che discrimina. In: ilsole24ore.com. 11. Oktober 2023, abgerufen am 17. Januar 2024 (italienisch).
  117. a b Spanisches Ministerium für Wissenschaft (2018): Spanish RDI Strategy in Artificial Intelligence. In: www.knowledge4policy.ec.europa.eu. (PDF). Abgerufen am 9. Dezember 2023.
  118. a b Gian Volpicelli: Chaining the chatbots: Spain closes in on AI Act – POLITICO. In: politico.eu. 22. Juni 2023, abgerufen am 17. Januar 2024 (englisch).
  119. Carlos del Castillo: España vigilará la Inteligencia Artificial como a los fármacos o los alimentos. In: eldiario.es. 28. Dezember 2021, abgerufen am 17. Januar 2024 (spanisch).
  120. Sandra Viñas: España comienza el proceso para elegir la sede de la futura Agencia Española de Supervisión de la IA. In: elespanol.com. 13. September 2022, abgerufen am 17. Januar 2024 (spanisch).
  121. José Marcos: descentralización: El Gobierno inicia con la Agencia de Inteligencia Artificial el traslado de sedes fuera de Madrid. In: elpais.com. 12. September 2022, abgerufen am 17. Januar 2024 (spanisch).
  122. A Coruña acogerá la Agencia Española de Inteligencia Artificial. Europa Press. 5. Dezember 2022. Abgerufen am 3. September 2023.
  123. El Gobierno aprueba el estatuto de la Agencia Española de Supervisión de la Inteligencia Artificial. In: europapress.es. 22. August 2023, abgerufen am 17. Januar 2024 (spanisch).
  124. Federico Guerrini: European Countries Race To Set The AI Regulatory Pace. In: forbes.com. 4. September 2023, abgerufen am 17. Januar 2024 (englisch).
  125. a b Digital economy strategy 2015 to 2018 – UKRI. In: ukri.org. 16. Februar 2015, abgerufen am 17. Januar 2024 (englisch).
  126. Data ethics and AI guidance landscape. In: GOV.UK. Abgerufen am 26. Oktober 2023.
  127. Leslie, David (11. Juli 2019): Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector. In: Zenodo. arXiv:1906.05684. doi:10.5281/zenodo.3240529. S2CID 189762499.
  128. Intelligent security tools. In: www.ncsc.gov.uk. Abgerufen am 28. April 2020.
  129. Tim Richardson: UK publishes National Artificial Intelligence Strategy • The Register. In: theregister.com. 22. September 2021, abgerufen am 17. Januar 2024 (englisch).
  130. The National AI Strategy of the UK, 2021 (Maßnahme 9 und 10 des Abschnitts "Pillar 3 - Governing AI Effectively")
  131. A pro-innovation approach to AI regulation. GOV.UK. Abgerufen am 27. Oktober 2023.
  132. Asress Adimi Gikay: How the UK is getting AI regulation right. In: theconversation.com. 8. Juni 2023, abgerufen am 17. Januar 2024 (englisch).
  133. Ryan Browne: British Prime Minister Rishi Sunak pitches UK as home of A.I. safety regulation as London bids to be next Silicon Valley. In: cnbc.com. 12. Juni 2023, abgerufen am 17. Januar 2024 (englisch).
  134. AI Safety Summit: introduction (HTML). In: GOV.UK. Abgerufen am 27. Oktober 2023.
  135. Weaver, John Frank (28.12.2018): Regulation of artificial intelligence in the United States. In: Research Handbook on the Law of Artificial Intelligence S. 155–212. doi:10.4337/9781786439055.00018. ISBN 978-1-78643-905-5.
  136. The Administration's Report on the Future of Artificial Intelligence. In: whitehouse.gov. 12. Oktober 2016. Abgerufen am 1. November 2023.
  137. National Science and Technology Council Committee on Technology (Oktober 2016): Preparing for the Future of Artificial Intelligence. In: whitehouse.gov – über National Archives and Records Administration.
  138. "National Strategic Research and Development Plan for Artificial Intelligence" (PDF; 1,8 MB). National Science and Technology Council. Oktober 2016.
  139. About. In: National Security Commission on Artificial Intelligence. Abgerufen am 29. Juli 2020.
  140. Stefanik, Elise M. (22. Mai 2018): H.R.5356 – 115th Congress (2017–2018): National Security Commission Artificial Intelligence Act of 2018. In: www.congress.gov. Abgerufen am 13. März 2020.
  141. Heinrich, Martin (21. Mai 2019): Text - S.1558 - 116th Congress (2019–2020): Artificial Intelligence Initiative Act. In: www.congress.gov. Abgerufen am 29. März 2020.
  142. Scherer, Matthew U. (2015): Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies. In: SSRN Working Paper Series. doi:10.2139/ssrn.2609777. ISSN 1556-5068.
  143. Executive Order on Maintaining American Leadership in Artificial Intelligence – The White House. In: trumpwhitehouse.archives.gov. Abgerufen am 1. November 2023.
  144. Vought, Russell T.: MEMORANDUM FOR THE HEADS OF EXECUTIVE DEPARTMENTS AND AGENCIES - Guidance for Regulation of Artificial Intelligence Applications. (PDF; 0,3 MB). The White House.
  145. AI Update: White House Issues 10 Principles for Artificial Intelligence Regulation. In: Inside Tech Media. 14. Januar 2020. Abgerufen am 25. März 2020.
  146. U.S. Leadership in AI: A Plan for Federal Engagement in Developing Technical Standards and Related Tools (PDF; 1,0 MB). National Institute of Science and Technology. 2019.
  147. Request for Comments on a Draft Memorandum to the Heads of Executive Departments and Agencies, "Guidance for Regulation of Artificial Intelligence Applications". In: Federal Register. 13. Januar 2020. Abgerufen am 28. November 2020.
  148. National Science Technology Council (21. Juni 2019): The National Artificial Intelligence Research and Development Strategic Plan: 2019 Update. (PDF; 1,1 MB).
  149. Gursoy, Furkan; Kakadiaris, Ioannis A. (2023): Artificial intelligence research strategy of the United States: critical assessment and policy recommendations. In: Frontiers in Big Data. Band 6. doi:10.3389/fdata.2023.1206139. ISSN 2624-909X.
  150. NSCAI Final Report (PDF; 14 MB). Washington, DC: The National Security Commission on Artificial Intelligence. 2021.
  151. Homeland Newswire (25. Juli 2022). Portman, Peters Introduce Bipartisan Bill to Ensure Federal Government is Prepared for Catastrophic Risks to National Security (Memento vom 25. Juni 2022 im Internet Archive). HomelandNewswire. Archiviert aus dem Original am 25. Juni 2022. Abgerufen am 4. Juni 2022.
  152. Text - S.4488 - 117th Congress (2021–2022): A bill to establish an interagency committee on global catastrophic risk, and for other purposes. Congress.gov | Library of Congress. 23. Juli 2022. Abgerufen am 4. Juni 2022.
  153. Blueprint for an AI Bill of Rights | OSTP. In: The White House. Abgerufen am 1. November 2023.
  154. The White House just unveiled a new AI Bill of Rights. In: MIT Technology Review. Abgerufen am 24. Oktober 2023.
  155. A Local Law to amend the administrative code of the city of New York, in relation to automated employment decision tools. In: The New York City Council. Abgerufen am 1. November 2023.
  156. Kestenbaum, Jonathan (5. Juli 2023): NYC's New AI Bias Law Broadly Impacts Hiring and Requires Audits. In: Bloomberg Law. Abgerufen am 24. Oktober 2023.
  157. The White House (21. Juni 2023): FACT SHEET: Biden-Harris Administration Secures Voluntary Commitments from Leading Artificial Intelligence Companies to Manage the Risks Posed by AI. In: The White House. Abgerufen am 25. September 2023.
  158. The White House (12.09.2023): FACT SHEET: Biden-Harris Administration Secures Voluntary Commitments from Eight Additional Artificial Intelligence Companies to Manage the Risks Posed by AI. In: The White House. Abgerufen am 25. September 2023.
  159. Mohar Chatterjee: Biden to push for government standards on AI. In: politico.com. 12. Oktober 2023, abgerufen am 17. Januar 2024 (englisch).
  160. The White House (30. Oktober 2023): FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence. Un: The White House. Abgerufen am 5. Dezember 2023.
  161. James Andrew Lewis, Emely Benson, Michael Frank: The Biden Administration’s Executive Order on Artificial Intelligence. In: csis.org. 31. Oktober 2023, abgerufen am 17. Januar 2024 (englisch).
  162. The White House (30. Oktober 2023): Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. In: The White House. Abgerufen am 5. Dezember 2023.
  163. Lanum, Nikolas (07.11.2023). President Biden's AI executive order has 'dangerous limitations,' says deepfake detection company CEO. In: FOXBusiness. Abgerufen am 5. Dezember 2023.
  164. Background on Lethal Autonomous Weapons Systems in the CCW. United Nations Geneva.
  165. Guiding Principles affirmed by the Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons System (Memento vom 1. Dezember 2020 im Internet Archive) (PDF). United Nations Geneva. Archiviert aus dem Original (PDF) am 1. Dezember 2020. Abgerufen am 5. Mai 2020.
  166. Baum, Seth (2018): Countering Superintelligence Misinformation. In: Information. Band 9, Nummer 10, S. 244. doi:10.3390/info9100244. ISSN 2078-2489.
  167. Country Views on Killer Robots (PDF; 0,1 MB). The Campaign to Stop Killer Robots.
  168. Sayler, Kelley (2020). Artificial Intelligence and National Security: Aktualisiert am 10. November 2020 (PDF). Washington, DC: Congressional Research Service.
  169. Defense Primer: U.S. Policy on Lethal Autonomous Weapon Systems. In: Congressional Research Service. 15. Mai 2023.