„Artificial General Intelligence“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
[ungesichtete Version][ungesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
Übersetzung des Abschnitts aus dem Englischen.
Übersetzung aus dem Englischen. Die restlichen Quellen folgen später heute Abend
Zeile 45: Zeile 45:


Im Jahr 2023 war eine kleine Zahl von Informatikern in der AGI-Forschung tätig, und viele trugen zu einer Reihe von AGI-Konferenzen bei. Allerdings interessieren sich immer mehr Forscher für das sogenannte ''open ended learning'',<ref>{{Literatur |Autor=Henry Shevlin, Karina Vold, Matthew Crosby, Marta Halina |Titel=The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge |Sammelwerk=EMBO reports |Band=20 |Nummer=10 |Datum=2019-10-04 |ISSN=1469-221X |DOI=10.15252/embr.201949177 |PMC=6776890 |PMID= |Online=https://www.embopress.org/doi/10.15252/embr.201949177 |Abruf=2024-04-11}}</ref><ref>{{Literatur |Autor=Sébastien Bubeck et al. |Titel=Sparks of Artificial General Intelligence: Early experiments with GPT-4 |Datum=2023-03-27}}</ref> d. h. für die Idee, KI kontinuierliches menschenähnliches Lernen und Innovation zu ermöglichen. Obwohl die meiste Arbeit zu open ended learning immer noch mit [[Minecraft]] durchgeführt wird,<ref name=":1" /><ref>{{Literatur |Autor=Rolf Pfeifer, Josh Bongard, Simon Grand |Titel=How the body shapes the way we think: a new view of intelligence |Verlag=MIT Press |Ort=Cambridge, Mass |Datum=2007 |ISBN=978-0-262-16239-5 |Online=https://www.worldcat.org/title/ocm65644796 |Abruf=2024-04-11}}</ref><ref name=":3" /> können die Anwendungen auf die Robotik und die Wissenschaften ausgeweitet werden.
Im Jahr 2023 war eine kleine Zahl von Informatikern in der AGI-Forschung tätig, und viele trugen zu einer Reihe von AGI-Konferenzen bei. Allerdings interessieren sich immer mehr Forscher für das sogenannte ''open ended learning'',<ref>{{Literatur |Autor=Henry Shevlin, Karina Vold, Matthew Crosby, Marta Halina |Titel=The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge |Sammelwerk=EMBO reports |Band=20 |Nummer=10 |Datum=2019-10-04 |ISSN=1469-221X |DOI=10.15252/embr.201949177 |PMC=6776890 |PMID= |Online=https://www.embopress.org/doi/10.15252/embr.201949177 |Abruf=2024-04-11}}</ref><ref>{{Literatur |Autor=Sébastien Bubeck et al. |Titel=Sparks of Artificial General Intelligence: Early experiments with GPT-4 |Datum=2023-03-27}}</ref> d. h. für die Idee, KI kontinuierliches menschenähnliches Lernen und Innovation zu ermöglichen. Obwohl die meiste Arbeit zu open ended learning immer noch mit [[Minecraft]] durchgeführt wird,<ref name=":1" /><ref>{{Literatur |Autor=Rolf Pfeifer, Josh Bongard, Simon Grand |Titel=How the body shapes the way we think: a new view of intelligence |Verlag=MIT Press |Ort=Cambridge, Mass |Datum=2007 |ISBN=978-0-262-16239-5 |Online=https://www.worldcat.org/title/ocm65644796 |Abruf=2024-04-11}}</ref><ref name=":3" /> können die Anwendungen auf die Robotik und die Wissenschaften ausgeweitet werden.

=== Machbarkeit ===
Im Jahr 2024 bleiben vollständige Formen der AGI spekulativ.<ref>{{Literatur |Autor=Philip Boucher |Titel=Concluding remarks |Sammelwerk=How artificial intelligence works |Verlag=European Parliamentary Research Service |Datum=2019-03}}</ref><ref>{{Internetquelle |url=https://www.itu.int/en/journal/001/Documents/itu2018-9.pdf |titel=Beyond Mad?: The Race For Artificial General Intelligence |abruf=2024-04-11}}</ref> Bisher wurde noch kein System vorgestellt, das die allgemein anerkannten Kriterien für AGI erfüllt. Meinungen darüber, ob und wann es artificial general intelligence geben wird, gehen auseinander. Der KI-Pionier [[Herbert A. Simon]] spekulierte 1965, dass „Maschinen innerhalb von zwanzig Jahren in der Lage sein werden, jede Arbeit zu verrichten, die ein Mensch verrichten kann". Diese Vorhersage hat sich nicht bewahrheitet. Der Mitbegründer von Microsoft, [[Paul Allen]], hielt eine solche Intelligenz innerhalb des 21. Jahrhunderts für unwahrscheinlich, da sie „unvorhersehbare und grundsätzlich unvoraussagbare Durchbrüche" und ein „ tiefes wissenschaftliches Verständnis der Kognition" voraussetzen würde.<ref>{{Literatur |Autor=Paul Allen, Mark Greaves |Titel=The Singularity Isn't Near |Verlag=MIT Technology Review |Datum=2011-10-12}}</ref> Der Robotiker Alan Winfield behauptete in [[The Guardian]], die Kluft zwischen modernen Computern und künstlicher Intelligenz auf menschlichem Niveau sei so groß wie die Kluft zwischen der derzeitigen Raumfahrt und Raumschiffen mit Überlichtgeschwindigkeit.<ref>{{Literatur |Autor=Alan Winfield |Titel=Artificial intelligence will not turn into a Frankenstein's monster |Verlag=The Guardian}}</ref>

Die meisten KI-Forscher glauben, dass starke KI in der Zukunft erreicht werden kann, aber einige Denker wie [[Hubert Dreyfus]] und [[Roger Penrose]] bestreiten diese Möglichkeit.<ref>{{Literatur |Autor=William F. Clocksin |Titel=Artificial intelligence and the future |Sammelwerk=Philosophical Transactions of the Royal Society of London. Series A: Mathematical, Physical and Engineering Sciences |Band=361 |Nummer=1809 |Datum=2003-08-15 |ISSN=1364-503X |DOI=10.1098/rsta.2003.1232 |Seiten=1721–1748 |Online=https://royalsocietypublishing.org/doi/10.1098/rsta.2003.1232 |Abruf=2024-04-11}}</ref><ref>{{Literatur |Autor=Ragnar Fjelland |Titel=Why general artificial intelligence will not be realized |Sammelwerk=Humanities and Social Sciences Communications |Band=7 |Nummer=1 |Datum=2020-06-17 |ISSN=2662-9992 |DOI=10.1057/s41599-020-0494-4 |Online=https://www.nature.com/articles/s41599-020-0494-4 |Abruf=2024-04-11}}</ref> John McCarthy gehört zu denjenigen, die glauben, dass eine KI auf menschlichem Niveau erreicht werden wird, dass aber der gegenwärtige Fortschritt nicht zulässt, ein genaues Datum vorauszusagen.<ref>{{Literatur |Autor=John McCarthy |Titel=From here to human-level AI |Sammelwerk=Artificial Intelligence |Band=171 |Nummer=18 |Datum=2007-12 |DOI=10.1016/j.artint.2007.10.009 |Seiten=1174–1182 |Online=https://linkinghub.elsevier.com/retrieve/pii/S0004370207001476 |Abruf=2024-04-11}}</ref> Die Ansichten von KI-Experten über die Machbarkeit von AGI schwanken. Vier in den Jahren 2012 und 2013 durchgeführte Umfragen ergaben, dass die Experten je nach Umfrage im Median ein Datum zwischen 2040 und 2050 angaben, wenn sie nach dem Zeitpunkt gefragt wurden, zu dem sie mit 50-prozentiger Wahrscheinlichkeit von der Entwicklung von AGI ausgehen, wobei der Mittelwert bei 2081 lag. Von den Experten antworteten 16,5 % mit „nie", wenn ihnen dieselbe Frage gestellt wurde, allerdings wurde hier nach dem zeitpunkt gefragt, zu dem sie zu 90% von der Schaffung von AGI ausgehen.<ref>{{Literatur |Autor=Raffi Khatchadourian |Titel=The Doomsday Invention: Will artificial intelligence bring us utopia or destruction? |Sammelwerk=The New Yorker |Datum=2015-11-23}}</ref><ref>{{Literatur |Autor=V.C. Müller, Nick Bostrom |Titel=Future progress in artificial intelligence: A survey of expert opinion |Sammelwerk=Fundamental issues of artificial intelligence |Verlag=Springer |Datum=2016 |Seiten=555-572}}</ref>

In einem Bericht von Stuart Armstrong und Kaj Sotala vom Machine Intelligence Research Institute wurde festgestellt, dass „über einen Zeitraum von 60 Jahren eine starke Tendenz zur Vorhersage des Eintreffens von KI auf menschlichem Niveau in einem Zeitraum von 15 bis 25 Jahren ab dem Zeitpunkt der Vorhersage besteht". Sie analysierten 95 Vorhersagen aus den Jahren 1950 bis 2012, die das Entstehungsdatum von AGI abschätzen sollten.<ref>{{Literatur |Autor=Stuart Armstrong, Kaj Sotala |Titel=How We’re Predicting AI—or Failing To |Sammelwerk=Beyond AI: Artificial Dreams |Verlag=University of West Bohemia |Ort=Pilsen |Datum=2012 |Seiten=52–75}}</ref>

Im Jahr 2023 veröffentlichten [[Microsoft]]-Forscher eine detaillierte Bewertung von GPT-4. Sie kamen zu dem Schluss: „Angesichts des Umfangs und der Tiefe der Fähigkeiten von GPT-4 glauben wir, dass es mit Recht als eine frühe (wenn auch noch unvollständige) Version eines Systems der artificial general intelligence (AGI) angesehen werden kann."<ref>{{Internetquelle |url=https://www.vice.com/en/article/g5ypex/microsoft-now-claims-gpt-4-shows-sparks-of-general-intelligence |titel=Microsoft Now Claims GPT-4 Shows 'Sparks' of General Intelligence |abruf=2023-03-24}}</ref> Eine weitere Studie aus dem Jahr 2023 berichtete, GPT-4 übertreffe 99 % der Menschen in den Torrance-Tests für kreatives Denken.<ref>{{Literatur |Autor=Cary Shimek |Titel=AI Outperforms Humans in Creativity Test |Verlag=Neuroscience News |Datum=2023-07-06}}</ref><ref>{{Literatur |Autor=Erik E. Guzik, Christian Byrge, Christian Gilde |Titel=The originality of machines: AI takes the Torrance Test |Sammelwerk=Journal of Creativity |Band=33 |Nummer=3 |Datum=2023-12 |DOI=10.1016/j.yjoc.2023.100065 |Seiten=100065 |Online=https://linkinghub.elsevier.com/retrieve/pii/S2713374523000249 |Abruf=2024-04-11}}</ref>

=== Zeitlicher Rahmen ===
In der Einleitung seines 2006 erschienenen Buches<ref>{{Literatur |Titel=Artificial general intelligence |Verlag=Springer |Ort=Berlin ; New York |Datum=2007 |Reihe=Cognitive technologies |ISBN=978-3-540-23733-4 |Abruf=2024-04-11}}</ref> sagt Goertzel, dass die Schätzungen der Zeit, die bis zur Schaffung einer wirklich flexiblen AGI benötigt wird, von zehn Jahren bis zu mehr als einem Jahrhundert reichen. 2007 schien der Konsens in der AGI-Forschungsgemeinschaft darin zu bestehen, dass der von [[Ray Kurzweil]] 2005 in seinem Buch [[Menschheit 2.0]]<ref>{{Literatur |Autor=Ray Kurzweil |Titel=The Singularity is Near |Verlag=Viking Press |Datum=2005 |Seiten=260}}</ref> diskutierte Zeitrahmen (d. h. zwischen 2015 und 2045) plausibel sei.<ref>{{Literatur |Autor=Ben Goertzel |Titel=Human-level artificial general intelligence and the possibility of a technological singularity |Sammelwerk=Artificial Intelligence |Band=171 |Nummer=18 |Datum=2007-12 |DOI=10.1016/j.artint.2007.10.011 |Seiten=1161–1173 |Online=https://linkinghub.elsevier.com/retrieve/pii/S0004370207001464 |Abruf=2024-04-11}}</ref> Mainstream-KI-Forscher haben eine breite Palette von Meinungen darüber abgegeben, ob der Fortschritt so schnell sein wird. Eine 2012 durchgeführte Meta-Analyse von 95 derartigen modernen sowie historischen Stellungnahmen ergab eine fehlgeleitete Tendenz zur Vorhersage, dass die Schaffung von AGI innerhalb von 16 bis 26 Jahren erfolgen würde. Die Arbeit wurde aufgrund der Einteilung in Experten- und Nichtexpertenmeinungen kritisiert.<ref>{{Literatur |Autor=Katja Grace |Titel=Error in Armstrong and Sotala 2012 |Sammelwerk=AI Impacts |Datum=2016}}</ref>

Im Jahr 2012 entwickelten Alex Krizhevsky, [[Ilya Sutskever]] und [[Geoffrey Hinton]] ein neuronales Netzwerk namens AlexNet, das den [[ImageNet]]-Wettbewerb mit einem Fehlerquotient von 15,3 % gewann, deutlich besser als die Rate des zweitbesten Teilnehmers von 26,3 % (der traditionelle Ansatz verwendete eine gewichtete Summe der Ergebnisse verschiedener vordefinierter Klassifikatoren).<ref name=":4">{{Literatur |Autor=Martin V. Butz |Titel=Towards Strong AI |Sammelwerk=KI - Künstliche Intelligenz |Band=35 |Nummer=1 |Datum=2021-03 |ISSN=0933-1875 |DOI=10.1007/s13218-021-00705-x |Seiten=91–101 |Online=https://link.springer.com/10.1007/s13218-021-00705-x |Abruf=2024-04-11}}</ref> AlexNet wurde als erster Wegbereiter der aktuellen [[Deep Learning|Deep-Learning]]-Welle angesehen.<ref name=":4" />

Im Jahr 2017 führten die Forscher Feng Liu, Yong Shi und Ying Liu Intelligenztests mit öffentlich verfügbaren und frei zugänglichen schwachen KIs wie Google AI, Apples Siri und anderen durch. Im Maximum erreichten diese einen IQ-Wert von etwa 47, was etwa einem sechsjährigen Kind in der ersten Klasse entspricht. Ein Erwachsener kommt im Durchschnitt auf etwa 100. Ähnliche Tests wurden 2014 durchgeführt, wobei der IQ-Wert einen Höchstwert von 27 erreichte.<ref>{{Literatur |Autor=Feng Liu, Yong Shi, Ying Liu |Titel=Intelligence Quotient and Intelligence Grade of Artificial Intelligence |Sammelwerk=Annals of Data Science |Band=4 |Nummer=2 |Datum=2017-06 |ISSN=2198-5804 |DOI=10.1007/s40745-017-0109-0 |Seiten=179–191 |Online=http://link.springer.com/10.1007/s40745-017-0109-0 |Abruf=2024-04-11}}</ref><ref>{{Literatur |Autor=Jörn Brien |Titel=Google-KI doppelt so schlau wie Siri |Datum=2017-10-05}}</ref>

Im Jahr 2020 entwickelte [[OpenAI]] [[Generative Pre-trained Transformer 3|GPT-3]], ein Sprachmodell, das in der Lage ist, viele verschiedene Aufgaben ohne spezielles Training auszuführen. Gary Grossman bemerkt in einem [[Venturebeat|VentureBeat]]-Artikel, dass zwar Konsens darüber besteht, dass GPT-3 kein Beispiel für eine AGI ist, doch wird es von einigen als zu fortschrittlich angesehen, um als schwaches spezialisiertes KI-System eingestuft zu werden[84].

Im selben Jahr nutzte Jason Rohrer sein GPT-3-Konto, um einen Chatbot zu entwickeln und stellte eine Chatbot-Entwicklungsplattform namens "Project December" zur Verfügung. OpenAI verlangte Änderungen an dem Chatbot, um ihre Sicherheitsrichtlinien zu erfüllen. Daraufhin trennte Rohrer Project December von der GPT-3-API.[85]

Im Jahr 2022 entwickelte [[DeepMind]] Gato, ein Allzweck-System, das mehr als 600 verschiedene Aufgaben ausführen kann[86].

Im Jahr 2023 veröffentlichte [[Microsoft Research]] eine Studie über eine frühe Version von OpenAIs [[OpenAI#GPT-4|GPT-4]], in der behauptet wurde, sie verfüge über eine allgemeinere Intelligenz als frühere KI-Modelle und zeige bei Aufgaben in verschiedenen Bereichen wie Mathematik, Codierung und Recht Leistungen auf menschlichem Niveau. Diese Forschung löste eine Debatte darüber aus, ob GPT-4 als eine frühe, unvollständige Version von AGI betrachtet werden könne, und unterstrich die Notwendigkeit weiterer Erforschung und Bewertung solcher Systeme.[87]

Im Jahr 2023 äußerte der KI-Forscher [[Geoffrey Hinton]]:[88]<blockquote>Die Vorstellung, dass diese Dinger tatsächlich schlauer werden könnten als Menschen – ein paar Leute glaubten das, [...]. Aber die meisten Leute dachten, dieser Tag liege in weiter Ferne. Und auch ich dachte, es sei noch ein weiter Weg. Ich dachte, es seien noch 30 bis 50 Jahre oder noch länger. Natürlich glaube ich das jetzt nicht mehr.</blockquote>Im März 2024 erklärte der CEO von [[Nvidia]], [[Jen-Hsun Huang|Jensen Huang]], er gehe davon aus, dass KI innerhalb von fünf Jahren in der Lage sein wird, jeden Test mindestens genauso gut zu bestehen wie Menschen.


== Zeitliche Prognosen ==
== Zeitliche Prognosen ==

Version vom 11. April 2024, 19:28 Uhr

Artificial General Intelligence (AGI), deutsch Künstliche allgemeine Intelligenz, ist die hypothetische Intelligenz eines Computerprogramms, welches die Fähigkeit besitzt, jede intellektuelle Aufgabe zu verstehen oder zu lernen, die ein Mensch ausführen kann. Eine alternative Definition bezeichnet AGI als hochautonomes KI-System, welches bei der Lösung der meisten wirtschaftlich bedeutenden intellektuellen Aufgaben menschliche Fähigkeiten übertrifft.[1]

Umstritten ist, ob Fähigkeiten wie Planung, logisches Ableiten und Argumentieren ebenfalls zu AGI gehören müssten. Definitionen von Intellekt und menschlicher wie maschineller Intelligenz gibt es mehrere, was sich auch auf die Definition von AGI auswirkt.[2] Eine Steigerungsform von AGI wird maschinelle Superintelligenz genannt und wäre eine Art von AGI, welche umfassend intelligenter als Menschen wäre.[2][3]

AGI ist ein Hauptziel von Forschungen zur künstlichen Intelligenz (KI, engl. AI, artificial intelligence) und ein häufiges Thema in Science-Fiction und Zukunftsforschung. AGI kann auch als Strong AI (starke KI) oder Full AI bezeichnet werden – im Gegensatz zu Strong AI ist Weak AI (schwache KI) nicht dazu gedacht, menschenähnliche kognitive Fähigkeiten und Persönlichkeit zu zeigen, sondern beschränkt sich auf die Verwendung von Software zum Lösen ausgewählter vorbestimmter Probleme oder Argumentationsaufgaben (Expertensystem).[4][5]

Einige akademische Quellen behalten sich den Begriff Strong AI für Computerprogramme vor, die zusätzlich Kreativität, Empfindungsvermögen, Selbstbewusstsein und Bewusstsein erfahren können. Bezüglich Kreativität weist Demis Hassabis als Mitgründer der Firma DeepMind Technologies auf das KI-Programm AlphaGo hin, welches aus allen erfassten jemals gespielten Varianten des Brettspiels GO Muster und mögliche Positionen ableitet. Dabei macht das Programm jedoch nicht nur Durchschnittsgewichtungen, sondern leitet durch Extrapolation kreative neue Strategien ab. Allerdings können durch Maschinelles Lernen entsprechend trainierte Rechner noch nicht selbständig derartige neue Spiele erfinden.[6]

Tests

Fachleute haben unterschiedliche Tests zur Prüfung des Erreichens von AGI vorgeschlagen, welche sich auf verschiedene menschliche Fähigkeiten beziehen;[2]

  • Turing-Test: Ein KI-System und ein Mensch diskutieren mit einem weiteren verborgenen Menschen, welcher herausfinden muss, ob es sich beim Gesprächspartner um das KI-System oder um den anderen Menschen handelt. Die Erfolgsquote der KI bei der Täuschung gilt als Maß für das Erreichen von AGI.[7]
  • Studententest: Das KI-System immatrikuliert sich an einer Universität, belegt ein Kursprogramm wie Studenten in Hinblick auf einen bestimmten Studienabschluss. Das KI-System legt daraufhin die notwendigen Prüfungen ab, ohne dass zuvor das Kursmaterial aufgenommen wurde. Die erreichten Prüfungsresultate sind bereits sehr gut.[8]
  • Berufstest: Ein KI-System erledigt Arbeiten in einem bestimmten Beruf so gut wie entsprechende Angestellte – dies ist bereits in gewissen Berufen der Fall.[9] Durch Zugriff auf das Internet und vorhandene andere Softwareprogramme sowie Unternehmens-Datenbanken könnten KI-Systeme, welche als AI Agents bezeichnet werden und Erweiterungen von Chatbots sind, Büroarbeiten übernehmen.[10]
  • IKEA-Test: Ein in einem Paket verpacktes, zerlegtes IKEA-Möbel soll von einem KI-System auf Basis der nach dem Auspacken sichtbaren Komponenten und den Instruktionen in der Verpackungsbeilage durch Steuerung eines Roboters zusammengebaut werden.
  • Kaffeezubereitungstest: Ein KI-gesteuerter Roboter soll ein typisches Haus betreten und herausfinden, wie man dort einen Kaffee zubereitet. Dazu muss zuerst die Kaffeemaschine gefunden werden, um dann den Kaffee, das Wasser und eine Tasse bereitzustellen und durch Betätigen der elektrischen Kaffeemaschine den Kaffee zu brauen.

AI-complete Probleme

Es gibt viele Probleme, die allgemeine Intelligenz erfordern, um sie auf menschlichem Niveau zu lösen. So erfordern selbst bestimmte leicht verständliche Aufgaben wie maschinelle Übersetzung, dass eine Maschine in beiden Sprachen lesen und schreiben kann (Computerlinguistik), der Argumentation des Autors folgt (Verständnis), weiß, wovon die Rede ist (Wissen), und die ursprüngliche Absicht des Autors getreu wiedergeben kann (soziale Intelligenz). Alle diese Probleme müssen gleichzeitig gelöst werden, um eine maschinelle Leistung auf menschlichem Niveau zu erbringen.

Ein Problem wird im Englischen informell als „AI-complete” oder als hart („AI-hard") bezeichnet, wenn man glaubt, dass man zu seiner Lösung eine starke KI (AGI) einsetzen müsste, weil die Lösung die Fähigkeiten eines zweckgebundenen Algorithmus übersteigt[11].

Man nimmt an, dass zu den AI-complete Problemen die Computer Vision, das Verstehen natürlicher Sprache und der Umgang mit unerwarteten Umständen bei der Lösung von Problemen im Kontext der nicht-digitalen Welt gehören.[12] AI-complete Probleme können mit der heutigen Computertechnologie allein nicht gelöst werden und erfordern menschenbasierte Informationsverarbeitung. Diese Einschränkung könnte nützlich sein, um die Anwesenheit von Menschen zu testen, wie es CAPTCHAs tun, und für die Computersicherheit, um Brute-Force-Angriffe abzuwehren.[13][14]

Geschichte

Klassische KI

Die moderne KI-Forschung begann Mitte der 1950er Jahre.[15] Die erste Generation von KI-Forschern war davon überzeugt, dass AGI möglich sei und dass sie innerhalb weniger Jahrzehnte erreicht würde.[16] Der KI-Pionier Herbert A. Simon schrieb 1965: „Maschinen werden innerhalb von zwanzig Jahren in der Lage sein, jede Arbeit zu verrichten, die ein Mensch verrichten kann".[15]

Diese Vorhersagen inspirierten Stanley Kubricks und Arthur C. Clarkes Figur zur Schaffung ihres Charakters HAL 9000, der das verkörperte, was KI-Forscher glaubten, bis zum Jahr 2001 entwickeln zu können. Der KI-Pionier Marvin Minsky war als Berater an dem Projekt beteiligt, HAL 9000 so realistisch wie möglich nach Konsens der damaligen Vorhersagen zu gestalten.[17] Er sagte 1967: "Innerhalb einer Generation... wird das Problem der Schaffung 'künstlicher Intelligenz' im Wesentlichen gelöst sein".[18]

Mehrere Projekte der klassischen KI-Forschung, wie das Cyc-Projekt von Douglas Lenat (das 1984 begann) und das Soar-Projekt von Allen Newell, zielten auf AGI ab. Anfang der 1970er Jahre wurde jedoch deutlich, dass die Forscher die Schwierigkeiten des Projekts stark unterschätzt hatten. Geldgeber wurden skeptisch gegenüber der Entwicklung von AGI und setzten die Forscher zunehmend unter Druck, nützliche „angewandte KI“ zu entwickeln. Anfang der 1980er Jahre weckte das japanische „Fifth Generation Computer Project” das Interesse an AGI erneut, indem es einen Zehn-Jahres-Zeitplan vorstellte, der AGI-Ziele wie „eine lockere Unterhaltung zu führen“ enthielt.[19] Als Reaktion darauf und auf den Erfolg von Expertensystemen pumpten sowohl die Industrie als auch Regierungen Geld in das Feld.[20][21] Das Vertrauen in die KI brach jedoch Ende der 1980er Jahre spektakulär zusammen und die Ziele des Fifth Generation Computer Project wurden nie erreicht.[22] Zum zweiten Mal innerhalb von 20 Jahren hatten sich KI-Forscher geirrt, als sie das baldige Erreichen von AGI voraussagten. In den 1990er Jahren hatten KI-Forscher den Ruf, leere Versprechungen zu machen. Sie zögerten, überhaupt Vorhersagen zu machen[23] und vermieden es, von künstlicher Intelligenz auf „menschlichem Niveau" zu sprechen, aus Angst, als „verrückte Träumer" abgestempelt zu werden.[24]

Forschung an spezialisierter KI

In den 1990er Jahren und zu Beginn des 21. Jahrhunderts erlangte die Mainstream-KI-Entwicklung kommerziellen Erfolg und akademische Anerkennung, indem sie sich auf spezifische Teilprobleme konzentrierte, bei denen KI robuste Ergebnisse und kommerzielle Anwendungen hervorbringen konnte, wie z. B. Spracherkennung und Empfehlungsdienste.[25] Diese „angewandten KI-Systeme” werden heute in der gesamten Technologiebranche umfassend genutzt, und die Forschung in diesem Bereich wird sowohl von der Wissenschaft als auch von der Industrie stark gefördert. Im Jahr 2018 betrachtete man die Entwicklung in diesem Bereich als aufstrebenden Trend und es wurde erwartet, dass in mehr als 10 Jahren ein ausgereiftes Stadium erreicht wäre.[26]

Um die Jahrhundertwende hofften viele Mainstream-KI-Forscher[27], starke KI könne durch die Kombination von Programmen entwickelt werden, die verschiedene Teilprobleme lösen. Hans Moravec schrieb 1988:

Ich bin zuversichtlich, dass dieser „Bottom-up-Weg” zur künstlichen Intelligenz eines Tages den traditionellen „Top-down-Weg” auf halber Strecke treffen wird, bereit, die Kompetenz und das Wissen eines gesunden Menschenverstandes zu liefern, das sich unseren Programmen auf so frustrierende Weise entzogen hat.[27]

Doch selbst zu dieser Zeit war dies umstritten.[28]

Moderne AGI-Forschung

Der Begriff “artificial general intelligence" wurde bereits 1997 von Mark Gubrud[29] in einer Diskussion über die Auswirkungen vollautomatischer militärischer Produktion und Operationen verwendet. Ein mathematischer Formalismus für AGI wurde von Marcus Hutter im Jahr 2000 vorgeschlagen. Der AIXI genannte vorgeschlagene AGI-Akteur maximiert „die Fähigkeit, Ziele in einem breiten Spektrum von Umgebungen zu erfüllen".[30] Diese Art von AGI, die sich durch die Fähigkeit auszeichnet, eine mathematische Definition von Intelligenz zu maximieren, anstatt menschenähnliches Verhalten zu zeigen,[31] wurde auch als universelle künstliche Intelligenz bezeichnet.[32]

Der Begriff AGI wurde um 2002 von Shane Legg und Ben Goertzel erneut eingeführt und popularisiert.[33] Die AGI-Forschungsaktivitäten im Jahr 2006 förderten laut Pei Wang und Goertzel[34] „Veröffentlichungen und vorläufigen Ergebnissen“. Die erste Summer School im Bereich AGI organisierte 2009[35] das Artificial Brain Laboratory der Universität Xiamen und OpenCog in Xiamen, China. Der erste Universitätskurs wurde 2010[36] und 2011[37] an der Universität Plovdiv, Bulgarien, von Todor Arnaudov gehalten. Das MIT veranstaltete 2018 einen Kurs über AGI, der von Lex Fridman organisiert wurde und an dem eine Reihe von Gastdozenten teilnahmen.

Im Jahr 2023 war eine kleine Zahl von Informatikern in der AGI-Forschung tätig, und viele trugen zu einer Reihe von AGI-Konferenzen bei. Allerdings interessieren sich immer mehr Forscher für das sogenannte open ended learning,[38][39] d. h. für die Idee, KI kontinuierliches menschenähnliches Lernen und Innovation zu ermöglichen. Obwohl die meiste Arbeit zu open ended learning immer noch mit Minecraft durchgeführt wird,[19][40][30] können die Anwendungen auf die Robotik und die Wissenschaften ausgeweitet werden.

Machbarkeit

Im Jahr 2024 bleiben vollständige Formen der AGI spekulativ.[41][42] Bisher wurde noch kein System vorgestellt, das die allgemein anerkannten Kriterien für AGI erfüllt. Meinungen darüber, ob und wann es artificial general intelligence geben wird, gehen auseinander. Der KI-Pionier Herbert A. Simon spekulierte 1965, dass „Maschinen innerhalb von zwanzig Jahren in der Lage sein werden, jede Arbeit zu verrichten, die ein Mensch verrichten kann". Diese Vorhersage hat sich nicht bewahrheitet. Der Mitbegründer von Microsoft, Paul Allen, hielt eine solche Intelligenz innerhalb des 21. Jahrhunderts für unwahrscheinlich, da sie „unvorhersehbare und grundsätzlich unvoraussagbare Durchbrüche" und ein „ tiefes wissenschaftliches Verständnis der Kognition" voraussetzen würde.[43] Der Robotiker Alan Winfield behauptete in The Guardian, die Kluft zwischen modernen Computern und künstlicher Intelligenz auf menschlichem Niveau sei so groß wie die Kluft zwischen der derzeitigen Raumfahrt und Raumschiffen mit Überlichtgeschwindigkeit.[44]

Die meisten KI-Forscher glauben, dass starke KI in der Zukunft erreicht werden kann, aber einige Denker wie Hubert Dreyfus und Roger Penrose bestreiten diese Möglichkeit.[45][46] John McCarthy gehört zu denjenigen, die glauben, dass eine KI auf menschlichem Niveau erreicht werden wird, dass aber der gegenwärtige Fortschritt nicht zulässt, ein genaues Datum vorauszusagen.[47] Die Ansichten von KI-Experten über die Machbarkeit von AGI schwanken. Vier in den Jahren 2012 und 2013 durchgeführte Umfragen ergaben, dass die Experten je nach Umfrage im Median ein Datum zwischen 2040 und 2050 angaben, wenn sie nach dem Zeitpunkt gefragt wurden, zu dem sie mit 50-prozentiger Wahrscheinlichkeit von der Entwicklung von AGI ausgehen, wobei der Mittelwert bei 2081 lag. Von den Experten antworteten 16,5 % mit „nie", wenn ihnen dieselbe Frage gestellt wurde, allerdings wurde hier nach dem zeitpunkt gefragt, zu dem sie zu 90% von der Schaffung von AGI ausgehen.[48][49]

In einem Bericht von Stuart Armstrong und Kaj Sotala vom Machine Intelligence Research Institute wurde festgestellt, dass „über einen Zeitraum von 60 Jahren eine starke Tendenz zur Vorhersage des Eintreffens von KI auf menschlichem Niveau in einem Zeitraum von 15 bis 25 Jahren ab dem Zeitpunkt der Vorhersage besteht". Sie analysierten 95 Vorhersagen aus den Jahren 1950 bis 2012, die das Entstehungsdatum von AGI abschätzen sollten.[50]

Im Jahr 2023 veröffentlichten Microsoft-Forscher eine detaillierte Bewertung von GPT-4. Sie kamen zu dem Schluss: „Angesichts des Umfangs und der Tiefe der Fähigkeiten von GPT-4 glauben wir, dass es mit Recht als eine frühe (wenn auch noch unvollständige) Version eines Systems der artificial general intelligence (AGI) angesehen werden kann."[51] Eine weitere Studie aus dem Jahr 2023 berichtete, GPT-4 übertreffe 99 % der Menschen in den Torrance-Tests für kreatives Denken.[52][53]

Zeitlicher Rahmen

In der Einleitung seines 2006 erschienenen Buches[54] sagt Goertzel, dass die Schätzungen der Zeit, die bis zur Schaffung einer wirklich flexiblen AGI benötigt wird, von zehn Jahren bis zu mehr als einem Jahrhundert reichen. 2007 schien der Konsens in der AGI-Forschungsgemeinschaft darin zu bestehen, dass der von Ray Kurzweil 2005 in seinem Buch Menschheit 2.0[55] diskutierte Zeitrahmen (d. h. zwischen 2015 und 2045) plausibel sei.[56] Mainstream-KI-Forscher haben eine breite Palette von Meinungen darüber abgegeben, ob der Fortschritt so schnell sein wird. Eine 2012 durchgeführte Meta-Analyse von 95 derartigen modernen sowie historischen Stellungnahmen ergab eine fehlgeleitete Tendenz zur Vorhersage, dass die Schaffung von AGI innerhalb von 16 bis 26 Jahren erfolgen würde. Die Arbeit wurde aufgrund der Einteilung in Experten- und Nichtexpertenmeinungen kritisiert.[57]

Im Jahr 2012 entwickelten Alex Krizhevsky, Ilya Sutskever und Geoffrey Hinton ein neuronales Netzwerk namens AlexNet, das den ImageNet-Wettbewerb mit einem Fehlerquotient von 15,3 % gewann, deutlich besser als die Rate des zweitbesten Teilnehmers von 26,3 % (der traditionelle Ansatz verwendete eine gewichtete Summe der Ergebnisse verschiedener vordefinierter Klassifikatoren).[58] AlexNet wurde als erster Wegbereiter der aktuellen Deep-Learning-Welle angesehen.[58]

Im Jahr 2017 führten die Forscher Feng Liu, Yong Shi und Ying Liu Intelligenztests mit öffentlich verfügbaren und frei zugänglichen schwachen KIs wie Google AI, Apples Siri und anderen durch. Im Maximum erreichten diese einen IQ-Wert von etwa 47, was etwa einem sechsjährigen Kind in der ersten Klasse entspricht. Ein Erwachsener kommt im Durchschnitt auf etwa 100. Ähnliche Tests wurden 2014 durchgeführt, wobei der IQ-Wert einen Höchstwert von 27 erreichte.[59][60]

Im Jahr 2020 entwickelte OpenAI GPT-3, ein Sprachmodell, das in der Lage ist, viele verschiedene Aufgaben ohne spezielles Training auszuführen. Gary Grossman bemerkt in einem VentureBeat-Artikel, dass zwar Konsens darüber besteht, dass GPT-3 kein Beispiel für eine AGI ist, doch wird es von einigen als zu fortschrittlich angesehen, um als schwaches spezialisiertes KI-System eingestuft zu werden[84].

Im selben Jahr nutzte Jason Rohrer sein GPT-3-Konto, um einen Chatbot zu entwickeln und stellte eine Chatbot-Entwicklungsplattform namens "Project December" zur Verfügung. OpenAI verlangte Änderungen an dem Chatbot, um ihre Sicherheitsrichtlinien zu erfüllen. Daraufhin trennte Rohrer Project December von der GPT-3-API.[85]

Im Jahr 2022 entwickelte DeepMind Gato, ein Allzweck-System, das mehr als 600 verschiedene Aufgaben ausführen kann[86].

Im Jahr 2023 veröffentlichte Microsoft Research eine Studie über eine frühe Version von OpenAIs GPT-4, in der behauptet wurde, sie verfüge über eine allgemeinere Intelligenz als frühere KI-Modelle und zeige bei Aufgaben in verschiedenen Bereichen wie Mathematik, Codierung und Recht Leistungen auf menschlichem Niveau. Diese Forschung löste eine Debatte darüber aus, ob GPT-4 als eine frühe, unvollständige Version von AGI betrachtet werden könne, und unterstrich die Notwendigkeit weiterer Erforschung und Bewertung solcher Systeme.[87]

Im Jahr 2023 äußerte der KI-Forscher Geoffrey Hinton:[88]

Die Vorstellung, dass diese Dinger tatsächlich schlauer werden könnten als Menschen – ein paar Leute glaubten das, [...]. Aber die meisten Leute dachten, dieser Tag liege in weiter Ferne. Und auch ich dachte, es sei noch ein weiter Weg. Ich dachte, es seien noch 30 bis 50 Jahre oder noch länger. Natürlich glaube ich das jetzt nicht mehr.

Im März 2024 erklärte der CEO von Nvidia, Jensen Huang, er gehe davon aus, dass KI innerhalb von fünf Jahren in der Lage sein wird, jeden Test mindestens genauso gut zu bestehen wie Menschen.

Zeitliche Prognosen

Vorhersagen zur Entwicklung von AGI umfassen eine große zeitliche Bandbreite: KI-Experten und CEOs führender KI-Firmen, darunter Yoshua Bengio, Sam Altman und Demis Hassabis warnten 2023, dass AGI bereits in den nächsten Jahren oder in den 2030er-Jahren existieren könnte.[61][62][63] Geoffrey Hinton, einer der „Väter der KI“, ging im Mai 2023 von 5 bis 20 Jahren aus.[64] Modellierungen aus dem Jahr 2023 geben 2032 bis 2048 als wahrscheinlichste Zeitspanne für die Entwicklung von AGI an.[65] Andere vermuten, dass heutige KI mindestens noch Jahrzehnte von AGI entfernt ist[66] oder bewerten die Erreichbarkeit von AGI kritisch.[67]

Risiken

Da die mit AGI assoziierten Risiken von vielen Experten als essenziell eingestuft werden, forderte das Future of Life Institute (FLI) im März 2023 in einem offenen Brief dazu auf, die Entwicklung für sechs Monate zu pausieren, bis die Fragen der Regulierung geklärt seien. Zu den Unterzeichnern zählten Branchengrößen wie Elon Musk, Apple-Mitgründer Steve Wozniak und der Stability-AI-Chef, Emad Mostaque (Stable Diffusion).[68] Bis Februar 2024 hatten bereits über 33.000 Menschen den offenen Brief des Future of Life Institutes unterzeichnet.[69]

Eine Metaanalyse aus dem Jahr 2023, die auf der Auswertung von 18 für das Thema relevanten Studien beruht, weist auf folgende Risiken hin, die in Zusammenhang mit AGI auftreten könnten:[70]

  • AGI könnte sich der Kontrolle durch Menschen entziehen
  • AGI könnte Ziele verfolgen oder entwickeln, die Sicherheitsrisiken darstellen
  • Es könnten sich AGIs entwickeln, die Defizite in den Bereichen Ethik, Moral und Werte haben
  • Bei unsachgemäßer Handhabung oder in den falschen Händen könnten zweifelhafte politische oder militärische Ziele vorangetrieben werden

Die für die Studie verantwortlichen Wissenschaftler der australischen University of the Sunshine Coast, wiesen in ihrer Schlussbetrachtung eindringlich darauf hin, wie wichtig es sei, sich bereits präventiv mit diesen potenziellen Gefahren zu befassen und sie zugleich weiterhin zu erforschen.[70]

Auf EU-Ebene unterscheidet das Gesetz über künstliche Intelligenz nach folgenden drei Risikoklassen, für die unterschiedliche Anforderungen hinsichtlich Regulierung und Vorschriften zur Transparenz gelten:[71][72]

  • unannehmbares Risiko
  • hohes Risiko und (sogenannte „Hochrisiko-KI-Systeme“)
  • geringes oder minimales Risiko

KI-Systemen, denen ein unannehmbares Risiko bestätigt wurde, sind verboten, wobei sowohl das Inverkehrbringen, als auch die Inbetriebnahme und die Verwendung strafbar sind.[72]

Siehe auch

Einzelnachweise

  1. OpenAI Charter. openai.com. Abgerufen am 2023-11-06.
  2. a b c Shane Legg: Machine Super Intelligence. Universität Lugano, Dissertation, S. 4–11, 16–22, 2008-06. Abgerufen am 2023-11-06.
  3. Nick Barney: Artificial Superintelligence. Enterprise AI, techtarget.com. Abgerufen am 2023-11-06.
  4. MaryAnne M. Gobble: The Road to Artificial General Intelligence. In: Research-Technology Management. Band 62, Nr. 3, 4. Mai 2019, ISSN 0895-6308, S. 55–59, doi:10.1080/08956308.2019.1587336 (tandfonline.com [abgerufen am 7. Februar 2021]).
  5. Pei Wang, Ben Goertzel: Theoretical foundations of artificial general intelligence. Atlantis Press, Amsterdam 2012, ISBN 978-94-91216-62-6.
  6. Hannes Grassegger und Mikael Krogerus: Die Menschheit zur vollen Entfaltung bringen. In: Das Magazin No. 44, 2023-11-04, S. 10. Abgerufen am 2023-11-06.
  7. Roman Yampolskiy: Turing Test as a Defining Feature of AI-Completeness. In: Artificial Intelligence, Evolutionary Computation and Metaheuristics (AIECM), 3–17, 2012. Abgerufen am 2023-11-06.
  8. Lakshmi Varanasi: AI models like ChatGPT and GPT-4 are acing everything from the bar exam to AP Biology. Here's a list of difficult exams both AI versions have passed. In: Business Insider, 2023-03-21. Abgerufen am 2023-11-06.
  9. Caleb Naysmith: 6 Jobs Artificial Intelligence Is Already Replacing and How Investors Can Capitalize on It. yahoo.com, 2023-02-07. Abgerufen am 2023-11-06.
  10. Cade Metz und Karen Weise: How ‘A.I. Agents’ That Roam the Internet Could One Day Replace Workers. In: New York Times, 2023-10-16. Abgerufen am 2023-11-06.
  11. Stuart C. Shapiro: Artificial Intelligence. In: Stuart C. Shapiro (Hrsg.): Encyclopedia of Artificial Intelligence. 2. Auflage. New York Februar 2016, S. 54–57.
  12. Roman V. Yampolskiy,: Turing Test as a Defining Feature of AI-Completeness. In: Artificial Intelligence, Evolutionary Computation and Metaheuristics. 2012.
  13. Luis von Ahn, Manuel Blum, Nicholas Hopper, John Langford: CAPTCHA: Using Hard AI Problems for Security. In: Proceedings of Eurocrypt. März 2016, S. 294–311.
  14. Richard Bergmair: Natural Language Steganography and an "AI-complete" Security Primitive. CiteSeerX, Januar 2006.
  15. a b Daniel Crevier: AI: The Tumultuous Search for Artificial Intelligence. NY: BasicBooks, New York 1993, ISBN 0-465-02997-3.
  16. Andreas Kaplan: Artificial Intelligence, Business and Civilization – Our Fate Made in Machines. Mai 2022.
  17. Scientist on the Set: An Interview with Marvin Minsky. 16. Juli 2012, abgerufen am 11. April 2024 (englisch).
  18. Marvin Minsky zu Darach (1970), zitiert in Crevier (1993, p. 109).
  19. a b Stuart J. Russell, Peter Norvig: Artificial intelligence: a modern approach (= Prentice Hall series in artificial intelligence). 2nd ed Auflage. Prentice Hall/Pearson Education, Upper Saddle River, N.J 2003, ISBN 978-0-13-790395-5.
  20. NRC: Developments in Artificial Intelligence. In: Funding a Revolution: Government Support for Computing Research. National Academy Press, 1999.
  21. Daniel Crevier: AI: the tumultuous history of the search for artificial intelligence. Hrsg.: NY: Basic Books. Basic books, New York 1993, ISBN 978-0-465-02997-6, S. 161–162.
  22. Daniel Crevier: AI: The Tumultuous Search for Artificial Intelligence. NY: BasicBooks, New York 1993, ISBN 0-465-02997-3, S. 209–212.
  23. John McCarthy: Reply to Lighthill. Stanford University, 2000.
  24. John Markoff: Behind Artificial Intelligence, a Squadron of Bright Real People. In: The New York Times. Oktober 2005.
  25. Stuart Russel, Peter Norvig: Artificial Intelligence: A Modern Approach. 2. Auflage. Upper Saddle River, 2003, ISBN 0-13-790395-2, S. 25–26.
  26. Trends in the Emerging Tech Hype Cycle. In: Gartner Reports.
  27. a b Hans Moravec: Mind Children. Harvard University Press, 1988, S. 20.
  28. Stevan Harnad: The symbol grounding problem. In: Physica D: Nonlinear Phenomena. Band 42, Nr. 1-3, Juni 1990, S. 335–346, doi:10.1016/0167-2789(90)90087-6 (elsevier.com [abgerufen am 11. April 2024]).
  29. Mark Gubrud: Nanotechnology and International Security. In: Fifth Foresight Conference on Molecular Nanotechnology. November 1997.
  30. a b Marcus Hutter: Universal Artificial Intellegence (= Texts in Theoretical Computer Science An EATCS Series). Springer Berlin Heidelberg, Berlin, Heidelberg 2005, ISBN 978-3-540-22139-5, doi:10.1007/b138233 (springer.com [abgerufen am 11. April 2024]).
  31. Shane Legg: Machine Super Intelligence. University of Lugano, 2008.
  32. Artificial General Intelligence: 7th International Conference, AGI 2014, Quebec City, QC, Canada, August 1-4, 2014. Proceedings (= Lecture Notes in Computer Science. Band 8598). Springer International Publishing, Cham 2014, ISBN 978-3-319-09273-7, doi:10.1007/978-3-319-09274-4 (springer.com [abgerufen am 11. April 2024]).
  33. Who coined the term "AGI"? In: goertzel.org. Abgerufen am 11. April 2024.
  34. Advances in artificial general intelligence: concepts, architectures and algorithms: proceedings of the AGI Workshop 2006 (= Frontiers in artificial intelligence and applications. v. 157). IOS Press, Amsterdam ; Washington, DC 2007, ISBN 978-1-58603-758-1.
  35. First International Summer School in Artificial General Intelligence, Main summer school: June 22 – July 3, 2009, OpenCog Lab: July 6-9, 2009. Abgerufen am 11. April 2024.
  36. Избираеми дисциплини 2009/2010 – пролетен триместър. In: Elective courses 2009/2010 – spring trimester.
  37. Избираеми дисциплини 2010/2011 – зимен триместър. In: Elective courses 2010/2011 – winter trimester.
  38. Henry Shevlin, Karina Vold, Matthew Crosby, Marta Halina: The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge. In: EMBO reports. Band 20, Nr. 10, 4. Oktober 2019, ISSN 1469-221X, doi:10.15252/embr.201949177, PMC 6776890 (freier Volltext) – (embopress.org [abgerufen am 11. April 2024]).
  39. Sébastien Bubeck et al.: Sparks of Artificial General Intelligence: Early experiments with GPT-4. 27. März 2023.
  40. Rolf Pfeifer, Josh Bongard, Simon Grand: How the body shapes the way we think: a new view of intelligence. MIT Press, Cambridge, Mass 2007, ISBN 978-0-262-16239-5 (worldcat.org [abgerufen am 11. April 2024]).
  41. Philip Boucher: Concluding remarks. In: How artificial intelligence works. European Parliamentary Research Service, März 2019.
  42. Beyond Mad?: The Race For Artificial General Intelligence. Abgerufen am 11. April 2024.
  43. Paul Allen, Mark Greaves: The Singularity Isn't Near. MIT Technology Review, 12. Oktober 2011.
  44. Alan Winfield: Artificial intelligence will not turn into a Frankenstein's monster. The Guardian.
  45. William F. Clocksin: Artificial intelligence and the future. In: Philosophical Transactions of the Royal Society of London. Series A: Mathematical, Physical and Engineering Sciences. Band 361, Nr. 1809, 15. August 2003, ISSN 1364-503X, S. 1721–1748, doi:10.1098/rsta.2003.1232 (royalsocietypublishing.org [abgerufen am 11. April 2024]).
  46. Ragnar Fjelland: Why general artificial intelligence will not be realized. In: Humanities and Social Sciences Communications. Band 7, Nr. 1, 17. Juni 2020, ISSN 2662-9992, doi:10.1057/s41599-020-0494-4 (nature.com [abgerufen am 11. April 2024]).
  47. John McCarthy: From here to human-level AI. In: Artificial Intelligence. Band 171, Nr. 18, Dezember 2007, S. 1174–1182, doi:10.1016/j.artint.2007.10.009 (elsevier.com [abgerufen am 11. April 2024]).
  48. Raffi Khatchadourian: The Doomsday Invention: Will artificial intelligence bring us utopia or destruction? In: The New Yorker. 23. November 2015.
  49. V.C. Müller, Nick Bostrom: Future progress in artificial intelligence: A survey of expert opinion. In: Fundamental issues of artificial intelligence. Springer, 2016, S. 555–572.
  50. Stuart Armstrong, Kaj Sotala: How We’re Predicting AI—or Failing To. In: Beyond AI: Artificial Dreams. University of West Bohemia, Pilsen 2012, S. 52–75.
  51. Microsoft Now Claims GPT-4 Shows 'Sparks' of General Intelligence. Abgerufen am 24. März 2023.
  52. Cary Shimek: AI Outperforms Humans in Creativity Test. Neuroscience News, 6. Juli 2023.
  53. Erik E. Guzik, Christian Byrge, Christian Gilde: The originality of machines: AI takes the Torrance Test. In: Journal of Creativity. Band 33, Nr. 3, Dezember 2023, S. 100065, doi:10.1016/j.yjoc.2023.100065 (elsevier.com [abgerufen am 11. April 2024]).
  54. Artificial general intelligence (= Cognitive technologies). Springer, Berlin ; New York 2007, ISBN 978-3-540-23733-4.
  55. Ray Kurzweil: The Singularity is Near. Viking Press, 2005, S. 260.
  56. Ben Goertzel: Human-level artificial general intelligence and the possibility of a technological singularity. In: Artificial Intelligence. Band 171, Nr. 18, Dezember 2007, S. 1161–1173, doi:10.1016/j.artint.2007.10.011 (elsevier.com [abgerufen am 11. April 2024]).
  57. Katja Grace: Error in Armstrong and Sotala 2012. In: AI Impacts. 2016.
  58. a b Martin V. Butz: Towards Strong AI. In: KI - Künstliche Intelligenz. Band 35, Nr. 1, März 2021, ISSN 0933-1875, S. 91–101, doi:10.1007/s13218-021-00705-x (springer.com [abgerufen am 11. April 2024]).
  59. Feng Liu, Yong Shi, Ying Liu: Intelligence Quotient and Intelligence Grade of Artificial Intelligence. In: Annals of Data Science. Band 4, Nr. 2, Juni 2017, ISSN 2198-5804, S. 179–191, doi:10.1007/s40745-017-0109-0 (springer.com [abgerufen am 11. April 2024]).
  60. Jörn Brien: Google-KI doppelt so schlau wie Siri. 5. Oktober 2017.
  61. Max Tegmark: The 'Don't Look Up' Thinking That Could Doom Us With AI. Time Magazine, 25. April 2023.
  62. Tristan Bove: CEO of Google’s DeepMind says we could be ‘just a few years’ from A.I. that has human-level intelligence. Fortune, 3. Mai 2023.
  63. Zohaib Ahmed: When will the world see AGI? Elon Musk, Sam Altman & Geoffrey Hinton make these bold predictions. Indian Express, 8. November 2023.
  64. The ‘Godfather of AI’ Has a Hopeful Plan for Keeping Future AI Friendly. Wired, 11. August 2023.
  65. How Soon is Now? Predicting the Expected Arrival Date of AGI- Artificial General Intelligence. Rupert Macey-Dare, Universität Oxford, 30. Juni 2023.
  66. Cem Dilmegani: When will singularity happen? 995 experts’ opinions on AGI. In: research.aimultiple.com. 8. August 2017, abgerufen am 5. November 2021 (amerikanisches Englisch).
  67. Will Douglas Heaven: Artificial general intelligence: Are we close, and does it even make sense to try? MIT Technology Review, 2020-10-15. Abgerufen am 2023-11-06.
  68. KI-Regulierung. Von Musk und Co geforderte KI-Entwicklungspause verheimlicht reale Gefahren vom 2. April 2023 Der Standard, abgerufen am 10. Februar 2024
  69. Pause Giant AI Experiments: An Open Letter vom 22. März 2023 Future of Life Institute, abgerufen am 10. Februar 2024
  70. a b S. McLean, G.J.M. Read, J. Thompson, C. Baber, N.A. Stanton & P.M. Salmon (2023): The risks associated with Artificial General Intelligence: A systematic review. Journal of Experimental & Theoretical Artificial Intelligence, 35:5, 649–663, doi:10.1080/0952813X.2021.1964003
  71. Artificial Intelligence Act. Verordnung zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über Künstliche Intelligenz) think digital, abgerufen am 11. Februar 2024
  72. a b Francois Heynike: KPMG Law Insights. Der AI Act kommt: EU möchte Risiken von KI in den Griff bekommen vom 19. Oktober 2023 KPMG, abgerufen am 11. Februar 2024