Stellungnahme zu existenziellem Risiko durch KI

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Die Stellungnahme zu existenziellem Risiko durch KI ist eine am 30. Mai 2023 veröffentlichte kurze Erklärung zu existenziellem Risiko (Möglichkeit des Aussterbens der Menschheit) durch künstliche Intelligenz (KI), die von Hunderten Experten für künstliche Intelligenz und anderen namhaften Persönlichkeiten unterzeichnet wurde.[1][2]

„Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.“

„Die Minderung des existenziellen Risikos durch KI sollte neben anderen Risiken von gesellschaftlichem Ausmaß wie Pandemien und Atomkrieg eine globale Priorität sein.“

Zum Zeitpunkt der Veröffentlichung zählten zu den Unterzeichnern über 100 KI-Professoren, darunter die beiden meistzitierten Computerwissenschaftler und Turing-Preisträger Geoffrey Hinton und Yoshua Bengio, sowie die wissenschaftlichen und geschäftsführenden Leiter mehrerer großer KI-Unternehmen und Experten für Pandemien, Klima, nukleare Abrüstung, Philosophie, Sozialwissenschaften und andere Bereiche.[3][1][2] In der Medienberichterstattung wurden die Unterschriften mehrerer führender Vertreter der Technologiebranche hervorgehoben; andere Zeitungen äußerten daraufhin die Befürchtung, dass die Erklärung durch Öffentlichkeitsarbeit oder die Übernahme von Vorschriften motiviert sein könnte.[4][5] Die Erklärung wurde kurz nach einem offenen Brief veröffentlicht, in dem eine Pause bei KI-Experimenten gefordert wurde.[6]

Die Erklärung ist auf der Website des gemeinnützigen Center for AI Safety zu finden, das KI-Forschung und -Lobbyarbeit betreibt. Sie wurde mit einem Begleittext veröffentlicht, in dem es heißt, dass es immer noch schwierig sei, über die extremen Risiken der KI zu sprechen, und dass die Erklärung darauf abziele, dieses Hindernis zu überwinden. Der CEO des Zentrums, Dan Hendrycks, erklärte, dass „systemische Verzerrungen, Fehlinformationen, böswillige Nutzung, Cyberangriffe und Bewaffnung“ Beispiele für „wichtige und dringende Risiken der KI sind … nicht nur das Risiko des Aussterbens“, und fügte hinzu: „Gesellschaften können mehrere Risiken gleichzeitig handhaben; es ist nicht 'entweder/oder', sondern 'ja/und'“.[7]

Der Premierminister des Vereinigten Königreichs, Rishi Sunak, retweetete die Erklärung und schrieb: „Die Regierung schaut sich das sehr genau an“.[8] Die Pressesprecherin des Weißen Hauses, Karine Jean-Pierre, kommentierte die Erklärung mit den Worten: „KI ist eine der mächtigsten Technologien unserer Zeit. Aber um die Chancen, die sie bietet, zu nutzen, müssen wir zunächst ihre Risiken abmildern“.[9]

Zu den bekannten Unterzeichnern gehören unter anderem: Sam Altman, Bill Gates, Peter Singer, Daniel Dennett, Sam Harris, Grimes, Stuart Russell, Jaan Tallinn, Vitalik Buterin, David Chalmers, Ray Kurzweil, Max Tegmark, Lex Fridman, Martin Rees, Demis Hassabis, Dawn Song, Ted Lieu, Ilya Sutskever, Martin Hellman, Bill McKibben, Angela Kane, Audrey Tang, David Silver, Andrew Barto, Mira Murati, Pattie Maes, Eric Horvitz, Peter Norvig, Joseph Sifakis, Erik Brynjolfsson, Ian Goodfellow, Baburam Bhattarai, Kersti Kaljulaid, Rusty Schweickart, Nicholas Fairfax, David Haussler, Peter Railton, Bart Selman, Dustin Moskovitz, Scott Aaronson, Bruce Schneier, Martha Minow, Andrew Revkin, Rob Pike, Jacob Tsimerman, Ramy Youssef, James Pennebaker und Ronald C. Arkin.[10]

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. a b Statement on AI Risk | CAIS. Abgerufen am 15. März 2024 (englisch).
  2. a b Kevin Roose: A.I. Poses ‘Risk of Extinction,’ Industry Leaders Warn. In: The New York Times. 30. Mai 2023, ISSN 0362-4331 (nytimes.com [abgerufen am 15. März 2024]).
  3. Experten warnen: KI so gefährlich wie Pandemien oder Atomkrieg. Abgerufen am 15. März 2024.
  4. Matteo Wong: AI Doomerism Is a Decoy. In: The Atlantic. 2. Juni 2023, abgerufen am 15. März 2024 (englisch).
  5. Roland Lindner, New York: Open-AI-Vorstandschef: KI als Risiko zur Auslöschung der Menschheit. In: FAZ.NET. 30. Mai 2023, ISSN 0174-4909 (faz.net [abgerufen am 15. März 2024]).
  6. Konstantin Zimmermann, Karin Geil, dpa: Künstliche Intelligenz: Firmen und Forscher warnen vor einer "Vernichtung durch KI". In: Die Zeit. 30. Mai 2023, ISSN 0044-2070 (zeit.de [abgerufen am 15. März 2024]).
  7. Natasha Lomas: OpenAI's Altman and other AI giants back warning of advanced AI as 'extinction' risk. In: TechCrunch. 30. Mai 2023, abgerufen am 30. Mai 2023 (amerikanisches Englisch).
  8. Artificial intelligence warning over human extinction – all you need to know. 31. Mai 2023, abgerufen am 15. März 2024 (englisch).
  9. President Biden warns artificial intelligence could 'overtake human thinking'. Abgerufen am 15. März 2024 (amerikanisches Englisch).
  10. Statement on AI risk signatories. Abgerufen am 18. März 2024.