Artificial General Intelligence

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Artificial General Intelligence (AGI), deutsch Künstliche allgemeine Intelligenz, ist die Intelligenz eines hypothetischen Computerprogramms, welches die Fähigkeit besitzt, jede intellektuelle Aufgabe zu verstehen oder zu lernen, die ein Mensch ausführen kann. Eine alternative Definition bezeichnet AGI als hochautonomes KI-System, welches bei der Lösung der meisten wirtschaftlich bedeutenden intellektuellen Aufgaben menschliche Fähigkeiten übertrifft.[1]

Umstritten ist, ob Fähigkeiten wie Planung, logisches Ableiten und Argumentieren ebenfalls zu AGI gehören müssten. Definitionen von Intellekt und menschlicher wie maschineller Intelligenz gibt es mehrere, was sich auch auf die Definition von AGI auswirkt.[2] Eine Steigerungsform von AGI wird maschinelle Superintelligenz genannt und wäre eine Art von AGI, welche umfassend intelligenter als Menschen wäre.[2][3]

AGI ist ein Hauptziel von Forschungen zur künstlichen Intelligenz (KI, engl. AI, artificial intelligence) und ein häufiges Thema in Science-Fiction und Zukunftsforschung. AGI kann auch als Strong AI (starke KI) oder Full AI bezeichnet werden – im Gegensatz zu Strong AI ist Weak AI (schwache KI) nicht dazu gedacht, menschenähnliche kognitive Fähigkeiten und Persönlichkeit zu zeigen, sondern beschränkt sich auf die Verwendung von Software zum Lösen ausgewählter vorbestimmter Probleme oder Argumentationsaufgaben (Expertensystem).[4][5]

Einige akademische Quellen behalten sich den Begriff Strong AI für Computerprogramme vor, die zusätzlich Kreativität, Empfindungsvermögen, Selbstbewusstsein und Bewusstsein erfahren können. Bezüglich Kreativität weist Demis Hassabis als Mitgründer der Firma DeepMind Technologies auf das KI-Programm AlphaGo hin, welches aus allen erfassten jemals gespielten Varianten des Brettspiels GO Muster und mögliche Positionen ableitet. Dabei macht das Programm jedoch nicht nur Durchschnittsgewichtungen, sondern leitet durch Extrapolation kreative neue Strategien ab. Allerdings können durch Maschinelles Lernen entsprechend trainierte Rechner noch nicht selbständig derartige neue Spiele erfinden.[6]

Tests[Bearbeiten | Quelltext bearbeiten]

Fachleute haben unterschiedliche Tests zur Prüfung des Erreichens von AGI vorgeschlagen, welche sich auf verschiedene menschliche Fähigkeiten beziehen;[2]

  • Turing-Test: Ein KI-System und ein Mensch diskutieren mit einem weiteren verborgenen Menschen, welcher herausfinden muss, ob es sich beim Gesprächspartner um das KI-System oder um den anderen Menschen handelt. Die Erfolgsquote der KI bei der Täuschung gilt als Maß für das Erreichen von AGI.[7]
  • Studententest: Das KI-System immatrikuliert sich an einer Universität, belegt ein Kursprogramm wie Studenten in Hinblick auf einen bestimmten Studienabschluss. Das KI-System legt daraufhin die notwendigen Prüfungen ab, ohne dass zuvor das Kursmaterial aufgenommen wurde. Die erreichten Prüfungsresultate sind bereits sehr gut.[8]
  • Berufstest: Ein KI-System erledigt Arbeiten in einem bestimmten Beruf so gut wie entsprechende Angestellte – dies ist bereits in gewissen Berufen der Fall.[9] Durch Zugriff auf das Internet und vorhandene andere Softwareprogramme sowie Unternehmens-Datenbanken könnten KI-Systeme, welche als AI Agents bezeichnet werden und Erweiterungen von Chatbots sind, Büroarbeiten übernehmen.[10]
  • IKEA-Test: Ein in einem Paket verpacktes, zerlegtes IKEA-Möbel soll von einem KI-System auf Basis der nach dem Auspacken sichtbaren Komponenten und den Instruktionen in der Verpackungsbeilage durch Steuerung eines Roboters zusammengebaut werden.
  • Kaffeezubereitungstest: Ein KI-gesteuerter Roboter soll ein typisches Haus betreten und herausfinden, wie man dort einen Kaffee zubereitet. Dazu muss zuerst die Kaffeemaschine gefunden werden, um dann den Kaffee, das Wasser und eine Tasse bereitzustellen und durch Betätigen der elektrischen Kaffeemaschine den Kaffee zu brauen.

AI-complete Probleme[Bearbeiten | Quelltext bearbeiten]

Es gibt viele Probleme, die allgemeine Intelligenz erfordern, um sie auf menschlichem Niveau zu lösen. So erfordern selbst bestimmte leicht verständliche Aufgaben wie maschinelle Übersetzung, dass eine Maschine in beiden Sprachen lesen und schreiben kann (Computerlinguistik), der Argumentation des Autors folgt (Verständnis), weiß, wovon die Rede ist (Wissen), und die ursprüngliche Absicht des Autors getreu wiedergeben kann (soziale Intelligenz). Alle diese Probleme müssen gleichzeitig gelöst werden, um eine maschinelle Leistung auf menschlichem Niveau zu erbringen.

Ein Problem wird im Englischen informell als „AI-complete” oder als hart („AI-hard") bezeichnet, wenn man glaubt, dass man zu seiner Lösung eine starke KI (AGI) einsetzen müsste, weil die Lösung die Fähigkeiten eines zweckgebundenen Algorithmus übersteigt[11].

Man nimmt an, dass zu den AI-complete Problemen die Computer Vision, das Verstehen natürlicher Sprache und der Umgang mit unerwarteten Umständen bei der Lösung von Problemen im Kontext der nicht-digitalen Welt gehören.[12] AI-complete Probleme können mit der heutigen Computertechnologie allein nicht gelöst werden und erfordern menschenbasierte Informationsverarbeitung. Diese Einschränkung könnte nützlich sein, um die Anwesenheit von Menschen zu testen, wie es CAPTCHAs tun, und für die Computersicherheit, um Brute-Force-Angriffe abzuwehren.[13][14]

Geschichte[Bearbeiten | Quelltext bearbeiten]

Klassische KI[Bearbeiten | Quelltext bearbeiten]

Die moderne KI-Forschung begann Mitte der 1950er Jahre.[15] Die erste Generation von KI-Forschern war davon überzeugt, dass AGI möglich sei und dass sie innerhalb weniger Jahrzehnte erreicht würde.[16] Der KI-Pionier Herbert A. Simon schrieb 1965: „Maschinen werden innerhalb von zwanzig Jahren in der Lage sein, jede Arbeit zu verrichten, die ein Mensch verrichten kann".[15]

Diese Vorhersagen inspirierten Stanley Kubricks und Arthur C. Clarkes Figur zur Schaffung ihres Charakters HAL 9000, der das verkörperte, was KI-Forscher glaubten, bis zum Jahr 2001 entwickeln zu können. Der KI-Pionier Marvin Minsky war als Berater an dem Projekt beteiligt, HAL 9000 so realistisch wie möglich nach Konsens der damaligen Vorhersagen zu gestalten.[17] Er sagte 1967: "Innerhalb einer Generation... wird das Problem der Schaffung 'künstlicher Intelligenz' im Wesentlichen gelöst sein".[18]

Mehrere Projekte der klassischen KI-Forschung, wie das Cyc-Projekt von Douglas Lenat (das 1984 begann) und das Soar-Projekt von Allen Newell, zielten auf AGI ab. Anfang der 1970er Jahre wurde jedoch deutlich, dass die Forscher die Schwierigkeiten des Projekts stark unterschätzt hatten. Geldgeber wurden skeptisch gegenüber der Entwicklung von AGI und setzten die Forscher zunehmend unter Druck, nützliche „angewandte KI“ zu entwickeln. Anfang der 1980er Jahre weckte das japanische „Fifth Generation Computer Project” das Interesse an AGI erneut, indem es einen Zehn-Jahres-Zeitplan vorstellte, der AGI-Ziele wie „eine lockere Unterhaltung zu führen“ enthielt.[19] Als Reaktion darauf und auf den Erfolg von Expertensystemen pumpten sowohl die Industrie als auch Regierungen Geld in das Feld.[20][21] Das Vertrauen in die KI brach jedoch Ende der 1980er Jahre spektakulär zusammen und die Ziele des Fifth Generation Computer Project wurden nie erreicht.[22] Zum zweiten Mal innerhalb von 20 Jahren hatten sich KI-Forscher geirrt, als sie das baldige Erreichen von AGI voraussagten. In den 1990er Jahren hatten KI-Forscher den Ruf, leere Versprechungen zu machen. Sie zögerten, überhaupt Vorhersagen zu machen[23] und vermieden es, von künstlicher Intelligenz auf „menschlichem Niveau" zu sprechen, aus Angst, als „verrückte Träumer" abgestempelt zu werden.[24]

Forschung an spezialisierter KI[Bearbeiten | Quelltext bearbeiten]

In den 1990er Jahren und zu Beginn des 21. Jahrhunderts erlangte die Mainstream-KI-Entwicklung kommerziellen Erfolg und akademische Anerkennung, indem sie sich auf spezifische Teilprobleme konzentrierte, bei denen KI robuste Ergebnisse und kommerzielle Anwendungen hervorbringen konnte, wie z. B. Spracherkennung und Empfehlungsdienste.[25] Diese „angewandten KI-Systeme” werden heute in der gesamten Technologiebranche umfassend genutzt, und die Forschung in diesem Bereich wird sowohl von der Wissenschaft als auch von der Industrie stark gefördert. Im Jahr 2018 betrachtete man die Entwicklung in diesem Bereich als aufstrebenden Trend und es wurde erwartet, dass in mehr als 10 Jahren ein ausgereiftes Stadium erreicht wäre.[26]

Um die Jahrhundertwende hofften viele Mainstream-KI-Forscher[27], starke KI könne durch die Kombination von Programmen entwickelt werden, die verschiedene Teilprobleme lösen. Hans Moravec schrieb 1988:

Ich bin zuversichtlich, dass dieser „Bottom-up-Weg” zur künstlichen Intelligenz eines Tages den traditionellen „Top-down-Weg” auf halber Strecke treffen wird, bereit, die Kompetenz und das Wissen eines gesunden Menschenverstandes zu liefern, das sich unseren Programmen auf so frustrierende Weise entzogen hat.[27]

Doch selbst zu dieser Zeit war dies umstritten.[28]

Moderne AGI-Forschung[Bearbeiten | Quelltext bearbeiten]

Der Begriff “artificial general intelligence" wurde bereits 1997 von Mark Gubrud[29] in einer Diskussion über die Auswirkungen vollautomatischer militärischer Produktion und Operationen verwendet. Ein mathematischer Formalismus für AGI wurde von Marcus Hutter im Jahr 2000 vorgeschlagen. Der AIXI genannte vorgeschlagene AGI-Akteur maximiert „die Fähigkeit, Ziele in einem breiten Spektrum von Umgebungen zu erfüllen".[30] Diese Art von AGI, die sich durch die Fähigkeit auszeichnet, eine mathematische Definition von Intelligenz zu maximieren, anstatt menschenähnliches Verhalten zu zeigen,[31] wurde auch als universelle künstliche Intelligenz bezeichnet.[32]

Der Begriff AGI wurde um 2002 von Shane Legg und Ben Goertzel erneut eingeführt und popularisiert.[33] Die AGI-Forschungsaktivitäten im Jahr 2006 förderten laut Pei Wang und Goertzel[34] „Veröffentlichungen und vorläufigen Ergebnissen“. Die erste Summer School im Bereich AGI organisierte 2009[35] das Artificial Brain Laboratory der Universität Xiamen und OpenCog in Xiamen, China. Der erste Universitätskurs wurde 2010[36] und 2011[37] an der Universität Plovdiv, Bulgarien, von Todor Arnaudov gehalten. Das MIT veranstaltete 2018 einen Kurs über AGI, der von Lex Fridman organisiert wurde und an dem eine Reihe von Gastdozenten teilnahmen.

Im Jahr 2023 war eine kleine Zahl von Informatikern in der AGI-Forschung tätig, und viele trugen zu einer Reihe von AGI-Konferenzen bei. Allerdings interessieren sich immer mehr Forscher für das sogenannte open ended learning,[38][39] d. h. für die Idee, KI kontinuierliches menschenähnliches Lernen und Innovation zu ermöglichen. Obwohl die meiste Arbeit zu open ended learning immer noch mit Minecraft durchgeführt wird,[19][40][30] können die Anwendungen auf die Robotik und die Wissenschaften ausgeweitet werden.

Machbarkeit[Bearbeiten | Quelltext bearbeiten]

Im Jahr 2024 bleiben vollständige Formen der AGI spekulativ.[41][42] Bisher wurde noch kein System vorgestellt, das die allgemein anerkannten Kriterien für AGI erfüllt. Meinungen darüber, ob und wann es artificial general intelligence geben wird, gehen auseinander. Der KI-Pionier Herbert A. Simon spekulierte 1965, dass „Maschinen innerhalb von zwanzig Jahren in der Lage sein werden, jede Arbeit zu verrichten, die ein Mensch verrichten kann". Diese Vorhersage hat sich nicht bewahrheitet. Der Mitbegründer von Microsoft, Paul Allen, hielt eine solche Intelligenz innerhalb des 21. Jahrhunderts für unwahrscheinlich, da sie „unvorhersehbare und grundsätzlich unvoraussagbare Durchbrüche" und ein „ tiefes wissenschaftliches Verständnis der Kognition" voraussetzen würde.[43] Der Robotiker Alan Winfield behauptete in The Guardian, die Kluft zwischen modernen Computern und künstlicher Intelligenz auf menschlichem Niveau sei so groß wie die Kluft zwischen der derzeitigen Raumfahrt und Raumschiffen mit Überlichtgeschwindigkeit.[44]

Die meisten KI-Forscher glauben, dass starke KI in der Zukunft erreicht werden kann, aber einige Denker wie Hubert Dreyfus und Roger Penrose bestreiten diese Möglichkeit.[45][46] John McCarthy gehört zu denjenigen, die glauben, dass eine KI auf menschlichem Niveau erreicht werden wird, dass aber der gegenwärtige Fortschritt nicht zulässt, ein genaues Datum vorauszusagen.[47] Die Ansichten von KI-Experten über die Machbarkeit von AGI schwanken. Vier in den Jahren 2012 und 2013 durchgeführte Umfragen ergaben, dass die Experten je nach Umfrage im Median ein Datum zwischen 2040 und 2050 angaben, wenn sie nach dem Zeitpunkt gefragt wurden, zu dem sie mit 50-prozentiger Wahrscheinlichkeit von der Entwicklung von AGI ausgehen, wobei der Mittelwert bei 2081 lag. Von den Experten antworteten 16,5 % mit „nie", wenn ihnen dieselbe Frage gestellt wurde, allerdings wurde hier nach dem zeitpunkt gefragt, zu dem sie zu 90 % von der Schaffung von AGI ausgehen.[48][49]

In einem Bericht von Stuart Armstrong und Kaj Sotala vom Machine Intelligence Research Institute wurde festgestellt, dass „über einen Zeitraum von 60 Jahren eine starke Tendenz zur Vorhersage des Eintreffens von KI auf menschlichem Niveau in einem Zeitraum von 15 bis 25 Jahren ab dem Zeitpunkt der Vorhersage besteht". Sie analysierten 95 Vorhersagen aus den Jahren 1950 bis 2012, die das Entstehungsdatum von AGI abschätzen sollten.[50]

Im Jahr 2023 veröffentlichten Microsoft-Forscher eine detaillierte Bewertung von GPT-4. Sie kamen zu dem Schluss: „Angesichts des Umfangs und der Tiefe der Fähigkeiten von GPT-4 glauben wir, dass es mit Recht als eine frühe (wenn auch noch unvollständige) Version eines Systems der artificial general intelligence (AGI) angesehen werden kann."[51] Eine weitere Studie aus dem Jahr 2023 berichtete, GPT-4 übertreffe 99 % der Menschen in den Torrance-Tests für kreatives Denken.[52][53]

Zeitliche Prognosen[Bearbeiten | Quelltext bearbeiten]

Vorhersagen zur Entwicklung von AGI umfassen eine große zeitliche Bandbreite: KI-Experten und CEOs führender KI-Firmen, darunter Yoshua Bengio, Sam Altman und Demis Hassabis warnten 2023, dass AGI bereits in den nächsten Jahren oder in den 2030er-Jahren existieren könnte.[54][55][56] Geoffrey Hinton, einer der „Väter der KI“, ging im Mai 2023 von 5 bis 20 Jahren aus.[57] Modellierungen aus dem Jahr 2023 geben 2032 bis 2048 als wahrscheinlichste Zeitspanne für die Entwicklung von AGI an.[58] Andere vermuten, dass heutige KI mindestens noch Jahrzehnte von AGI entfernt ist[59] oder bewerten die Erreichbarkeit von AGI kritisch.[60]

In der Einleitung seines 2006 erschienenen Buches[61] sagt Goertzel, dass die Schätzungen der Zeit, die bis zur Schaffung einer wirklich flexiblen AGI benötigt wird, von zehn Jahren bis zu mehr als einem Jahrhundert reichen. 2007 schien der Konsens in der AGI-Forschungsgemeinschaft darin zu bestehen, dass der von Ray Kurzweil 2005 in seinem Buch Menschheit 2.0[62] diskutierte Zeitrahmen (d. h. zwischen 2015 und 2045) plausibel sei.[63] Mainstream-KI-Forscher haben eine breite Palette von Meinungen darüber abgegeben, ob der Fortschritt so schnell sein wird. Eine 2012 durchgeführte Meta-Analyse von 95 derartigen modernen sowie historischen Stellungnahmen ergab eine fehlgeleitete Tendenz zur Vorhersage, dass die Schaffung von AGI innerhalb von 16 bis 26 Jahren erfolgen würde. Die Arbeit wurde aufgrund der Einteilung in Experten- und Nichtexpertenmeinungen kritisiert.[64]

Im Jahr 2012 entwickelten Alex Krizhevsky, Ilya Sutskever und Geoffrey Hinton ein neuronales Netzwerk namens AlexNet, das den ImageNet-Wettbewerb mit einem Fehlerquotient von 15,3 % gewann, deutlich besser als die Rate des zweitbesten Teilnehmers von 26,3 % (der traditionelle Ansatz verwendete eine gewichtete Summe der Ergebnisse verschiedener vordefinierter Klassifikatoren).[65] AlexNet wurde als erster Wegbereiter der aktuellen Deep-Learning-Welle angesehen.[65]

Im Jahr 2017 führten die Forscher Feng Liu, Yong Shi und Ying Liu Intelligenztests mit öffentlich verfügbaren und frei zugänglichen schwachen KIs wie Google AI, Apples Siri und anderen durch. Im Maximum erreichten diese einen IQ-Wert von etwa 47, was etwa einem sechsjährigen Kind in der ersten Klasse entspricht. Ein Erwachsener kommt im Durchschnitt auf etwa 100. Ähnliche Tests wurden 2014 durchgeführt, wobei der IQ-Wert einen Höchstwert von 27 erreichte.[66][67]

Im Jahr 2020 entwickelte OpenAI GPT-3, ein Sprachmodell, das in der Lage ist, viele verschiedene Aufgaben ohne spezielles Training auszuführen. Gary Grossman bemerkt in einem VentureBeat-Artikel, dass zwar Konsens darüber besteht, dass GPT-3 kein Beispiel für eine AGI ist, doch wird es von einigen als zu fortschrittlich angesehen, um als schwaches spezialisiertes KI-System eingestuft zu werden.[68]

Im selben Jahr nutzte Jason Rohrer sein GPT-3-Konto, um einen Chatbot zu entwickeln und stellte eine Chatbot-Entwicklungsplattform namens "Project December" zur Verfügung. OpenAI verlangte Änderungen an dem Chatbot, um ihre Sicherheitsrichtlinien zu erfüllen. Daraufhin trennte Rohrer Project December von der GPT-3-API.[69]

Im Jahr 2022 entwickelte DeepMind Gato, ein Allzweck-System, das mehr als 600 verschiedene Aufgaben ausführen kann.[70]

Im Jahr 2023 veröffentlichte Microsoft Research eine Studie über eine frühe Version von OpenAIs GPT-4, in der behauptet wurde, sie verfüge über eine allgemeinere Intelligenz als frühere KI-Modelle und zeige bei Aufgaben in verschiedenen Bereichen wie Mathematik, Codierung und Recht Leistungen auf menschlichem Niveau. Diese Forschung löste eine Debatte darüber aus, ob GPT-4 als eine frühe, unvollständige Version von AGI betrachtet werden könne, und unterstrich die Notwendigkeit weiterer Erforschung und Bewertung solcher Systeme.[39]

Im Jahr 2023 äußerte der KI-Forscher Geoffrey Hinton:[71]

Die Vorstellung, dass diese Dinger tatsächlich schlauer werden könnten als Menschen – ein paar Leute glaubten das, [...]. Aber die meisten Leute dachten, dieser Tag liege in weiter Ferne. Und auch ich dachte, es sei noch ein weiter Weg. Ich dachte, es seien noch 30 bis 50 Jahre oder noch länger. Natürlich glaube ich das jetzt nicht mehr.

Im März 2024 erklärte der CEO von Nvidia, Jensen Huang, er gehe davon aus, dass KI innerhalb von fünf Jahren in der Lage sein wird, jeden Test mindestens genauso gut zu bestehen wie Menschen.

Gehirnsimulation[Bearbeiten | Quelltext bearbeiten]

Nachbildung ganzer Gehirne[Bearbeiten | Quelltext bearbeiten]

Ein möglicher Ansatz zur Verwirklichung von AGI ist die Nachbildung eines gesamten Gehirns: Ein Gehirnmodell wird erstellt, indem ein biologisches Gehirn im Detail gescannt und kartiert wird, um es dann auf einem Computersystem oder einer anderen Recheneinheit zu simulieren. Das Simulationsmodell muss hinreichend originalgetreu sein, so dass es sich praktisch genauso verhält wie das Originalgehirn.[72] Die Nachbildung ganzer Gehirne wird in den Computational Neurosciences und der Neuroinformatik im Zusammenhang mit der Gehirnsimulation für medizinische Forschungszwecke diskutiert. In der Forschung zur künstlichen Intelligenz[63] wurde sie als Ansatz für eine starke KI diskutiert. Die Neuroimaging-Technologien, die das erforderliche detaillierte Verständnis liefern könnten, verbessern sich rasch, und der Futurist Ray Kurzweil sagt in seinem Buch The Singularity Is Near[62] voraus, dass eine Gehirn-Kartierung von ausreichender Qualität in einem ähnlichen Zeitrahmen verfügbar sein wird, wie die für ihre Emulation erforderliche Rechenleistung.

Frühe Einschätzungen[Bearbeiten | Quelltext bearbeiten]

Für eine Low-Level-Simulation des Gehirns wäre angesichts der enormen Anzahl von Synapsen im menschlichen Gehirn ein sehr leistungsfähiges Netz von Computern oder GPUs erforderlich. Jedes der 1011 (hundert Milliarden) Neuronen hat im Durchschnitt 7.000 synaptische Verbindungen (Synapsen) zu anderen Neuronen. Das Gehirn eines dreijährigen Kindes hat etwa 1015 Synapsen (1 Billiarde). Diese Zahl nimmt während der Kindheit ab und stabilisiert sich im Erwachsenenalter. Die Schätzungen für einen Erwachsenen variieren und reichen von 1014 bis 5×1014 Synapsen (100 bis 500 Billionen).[73] Eine Schätzung der Verarbeitungsleistung des Gehirns, die auf einem einfachen Modell für die Neuronenaktivität beruht, liegt bei etwa 1014 (100 Billionen) synaptischen Aktualisierungen pro Sekunde (SUPS).[74]

1997 untersuchte Kurzweil verschiedene Schätzungen für die Hardware, die erforderlich wäre, um mit dem menschlichen Gehirn gleichzuziehen und nahm eine Zahl von 1015 Berechnungen pro Sekunde (cps) an.[75] (Zum Vergleich: Wenn eine "Berechnung" einer "floating-point operation" entspricht – ein Maß, das zur Bewertung aktueller Supercomputer verwendet wird – dann würden 1016 „Berechnungen" 10 Billiarden FLOPS entsprechen, die 2011 erreicht wurden, während 1018 im Jahr 2022 erreicht wurden). Anhand dieser Zahl sagte er voraus, die erforderliche Hardware stünde irgendwann zwischen 2015 und 2025 zur Verfügung, gegeben, das damalige exponentielle Wachstum der Computerleistung würde über den Zeitpunkt der Erstellung des Berichts hinaus anhalten.

Aktuelle Forschung[Bearbeiten | Quelltext bearbeiten]

Das Human Brain Project, eine von der EU finanzierte Initiative, die von 2013 bis 2023 aktiv war, hat einen besonders detaillierten und öffentlich zugänglichen Atlas des menschlichen Gehirns entwickelt.[76] 2023 führten Forscher der Duke University einen hochauflösenden Scan eines Mäusegehirns durch.[77] Ein Supercomputer mit einer ähnlichen Rechenleistung wie das menschliche Gehirn wird für April 2024 erwartet. Er trägt den Namen "DeepSouth" und könnte 228 Billionen synaptische Operationen pro Sekunde ausführen.[78]

Kritik an simulationsbasierten Ansätzen[Bearbeiten | Quelltext bearbeiten]

Das künstliche Neuronenmodell, mit dem Kurzweil arbeitet und das zuletzt in vielen künstlichen neuronalen Netzen verwendet wurde, ist im Vergleich zu biologischen Neuronen simpel. Eine Gehirnsimulation müsste wahrscheinlich das detaillierte zelluläre Verhalten biologischer Neuronen erfassen, das man gegenwärtig nur in groben Zügen versteht. Der Mehraufwand, der durch die vollständige Modellierung der biologischen, chemischen und physikalischen Details neuronalen Verhaltens (insbesondere auf molekularer Ebene) entstünde, würde eine Rechenleistung erfordern, die um mehrere Größenordnungen über Kurzweils Schätzung hinausgeht. Darüber hinaus berücksichtigen die Schätzungen nicht die Gliazellen, von denen bekannt ist, dass sie bei kognitiven Prozessen eine Rolle spielen.[79]

Ein grundlegender Kritikpunkt am Ansatz, Gehirne zu simulieren ergibt sich aus der Theorie des Embodiment, die behauptet, dass die menschliche Verkörperung ein wesentlicher Aspekt der menschlichen Intelligenz und damit notwendig ist, um eine Grundlage für bedeutungsvolle Existenz zu schaffen.[80][77]Wenn diese Theorie richtig liegt, muss jedes voll funktionsfähige Gehirnmodell mehr als nur die Neuronen umfassen (z. B. einen Roboterkörper). Goertzel[63] schlägt eine virtuelle Verkörperung (etwa in Metaversen wie Second Life) als eine Option vor. Es ist aber unklar, ob dies ausreichen würde.

Die Philosophische Perspektive[Bearbeiten | Quelltext bearbeiten]

„Starke KI” philosophisch definiert[Bearbeiten | Quelltext bearbeiten]

1980 prägte der Philosoph John Searle den Begriff „starke KI" als Teil seines chinesisches Zimmer-Argumentes[81] und wollte damit zwischen zwei verschiedenen Hypothesen über künstliche Intelligenz unterscheiden:[25]

  • Starke KI-Hypothese: Ein System mit künstlicher Intelligenz kann „einen Verstand" und „Bewusstsein" haben.
  • Schwache KI-Hypothese: Ein System mit künstlicher Intelligenz  kann (nur) so handeln, als ob es einen Verstand und ein Bewusstsein hat.

Die erste Hypothese nannte er „stark", weil sie eine stärkere Aussage macht: Sie geht davon aus, dass der Maschine etwas Besonderes widerfahren ist, das über die Fähigkeiten hinausgeht, die wir testen können. Das Verhalten einer „schwachen KI" wäre genau dasselbe wie das einer „starken KI", aber letztere hätte auch subjektive bewusste Erfahrungen. Diese Verwendung der Terminologie ist auch in der akademischen KI-Forschung und in Lehrbüchern üblich.[25]

Im Gegensatz zu Searle und der Mainstream-KI verwenden einige Futuristen wie Ray Kurzweil den Begriff „starke KI" für „artificial general intelligence auf menschlichem Niveau",[62] was nicht dasselbe ist wie Searles starke KI, es sei denn, man geht davon aus, dass Bewusstsein für eine AGI auf menschlichem Niveau notwendig ist. Akademische Philosophen wie Searle glauben nicht, dass dies der Fall ist, und für die meisten Forscher auf dem Gebiet der künstlichen Intelligenz liegt diese Frage außerhalb ihres Forschungsbereiches.[82]

Mainstream KI-Forschung interessiert sich vor allem dafür, wie sich ein Programm verhält. Russell und Norvig zufolge „ist es ihnen egal, ob man es als Realität oder als Simulation bezeichnet, solange das Programm funktioniert."[82] Wenn sich das Programm so verhalten kann, als hätte es einen Verstand, dann muss man nicht wissen, ob es tatsächlich einen Verstand hat – es gäbe gar keine Möglichkeit, das festzustellen. Für die KI-Forschung ist Searles „schwache KI-Hypothese" gleichbedeutend mit der Aussage „artificial general intelligence ist möglich". Russell und Norvig zufolge nehmen daher „die meisten KI-Forscher die schwache KI-Hypothese als gegeben hin und kümmern sich nicht um die starke KI-Hypothese"[82]. Für die akademische KI-Forschung sind „starke KI" und „AGI" also zwei verschiedene Dinge.

Bewusstsein, Selbstaufmerksamkeit und Empfingungsvermögen[Bearbeiten | Quelltext bearbeiten]

Neben der Intelligenz sind auch andere Aspekte des menschlichen Geistes für das Konzept der AGI oder „starken KI" von Bedeutung, und diese spielen in der Science-Fiction, sowie in der Ethik der künstlichen Intelligenz eine wichtige Rolle:

  • Bewusstsein: Subjektive Erfahrung zu haben. Thomas Nagel erklärt, wenn ein Wesen bewusst sei, dann gebe es eine Art und Weise, „wie es sich anfühlt”, dieses Wesen zu sein. Wenn wir uns unserer selbst nicht bewusst sind, dann fühlt es sich nach nichts an. Nagel verwendet das Beispiel einer Fledermaus: Wir können sinnvolle Fragen dieser Art stellen: „Wie fühlt es sich an, eine Fledermaus zu sein?" Es ist jedoch unwahrscheinlich (und wenig sinnvoll), dass jemand fragt: "Wie fühlt es sich an, ein Toaster zu sein?" Nagel kommt zu dem Schluss, dass eine Fledermaus ein Bewusstsein zu haben scheint, ein Toaster jedoch nicht.[83]
  • Selbstaufmerksamkeit: Sich seiner selbst als eigenständiges Individuum bewusst zu sein, insbesondere sich seiner eigenen Gedanken bewusst zu sein. Dies steht im Gegensatz dazu, einfach das „Subjekt seiner Gedanken" zu sein – ein Betriebssystem oder ein Debugger ist in der Lage, „sich seiner selbst bewusst zu sein" (d. h. sich selbst auf die gleiche Weise zu repräsentieren, wie es alles andere repräsentiert), aber das ist nicht das, was normalerweise gemeint ist, wenn von „Selbstaufmerksamkeit, bzw. Selbstbewusstsein" die Rede ist.[84]
  • Empfindungsvermögen: Die Fähigkeit, Wahrnehmungen oder Emotionen subjektiv zu „fühlen", im Gegensatz zu der Fähigkeit, über Wahrnehmungen nachzudenken oder, im Hinblick auf Emotionen, zu wissen, dass die aktuelle Situation Dringlichkeit, Freundlichkeit oder Aggression erfordert. Wir können zum Beispiel eine Maschine bauen, die weiß, welche Objekte in ihrem Sichtfeld rot sind, aber diese Maschine weiß nicht unbedingt, wie rot aussieht.

Diese Eigenschaften haben eine moralische Dimension, da eine Maschine mit dieser Form der „starken KI" Rechte haben könnte, die den Rechten nichtmenschlicher Tiere entsprechen. Es wurden Vorarbeiten zur Integration starker KI in bestehende rechtliche und soziale Rahmen durchgeführt, wobei der Schwerpunkt auf der rechtlichen Stellung und den Rechten der „starken" KI lag.[85]

Es muss sich noch zeigen, ob ein „künstliches Bewusstsein" für AGI notwendig ist. Viele AGI-Forscher halten jedoch die Erforschung der Möglichkeiten zur Implementierung von Bewusstsein für unerlässlich.[86]

Neben anderen argumentiert Bill Joy, dass eine Maschine mit diesen Eigenschaften eine Bedrohung für das Leben oder die Würde des Menschen darstellen könnte.[87]

Herausforderungen für die Forschung[Bearbeiten | Quelltext bearbeiten]

Der Fortschritt im Bereich der künstlichen Intelligenz hat in der Vergangenheit Phasen mit raschen Fortschritten durchlaufen, unterbrochen von Phasen, in denen der Fortschritt zum Stillstand zu kommen schien.[45] Jede Unterbrechung wurde von grundlegenden Neuerungen bei der Hardware, der Software oder beidem beendet, die Raum für weiteren Fortschritte kreierten.[45][88][89] Beispielsweise reichte die im zwanzigsten Jahrhundert verfügbare Computerhardware nicht aus, um Deep Learning zu implementieren, wofür eine große Anzahl von GPU-fähigen CPUs erforderlich ist.[90]

Eine weitere Herausforderung ist die unklare Definition dessen, was Intelligenz bedeutet. Erfordert sie Bewusstsein? Muss sie die Fähigkeit aufweisen, sich Ziele zu setzen und diese zu verfolgen? Ist es nur eine Frage der Skalierung, so dass Intelligenz automatisch entsteht, wenn Modelle ausreichend groß werden? Sind Fähigkeiten wie Planung, argumentatives Denken und kausales Verständnis erforderlich? Erfordert Intelligenz eine explizite Nachbildung des Gehirns und seiner spezifischen Fähigkeiten? Erfordert sie Emotionen?[91]

Nutzen[Bearbeiten | Quelltext bearbeiten]

AGI könnte eine breite Palette von Anwendungen haben. Wenn sie auf solche Ziele ausgerichtet würde, könnte AGI dazu beitragen, verschiedene Probleme in der Welt wie Hunger, Armut und Gesundheitsprobleme zu lindern.[92]

AGI könnte die Produktivität und Effizienz in den meisten Berufen verbessern. Im Gesundheitswesen könnte sie beispielsweise die medizinische Forschung beschleunigen, etwa in der Krebsbekämpfung.[93] Sie könnte Pflegeaufgaben übernehmen[94] und schnellen Zugang zu hochwertigen medizinischen Diagnosen demokratisieren. Sie könnte unterhaltsame, billige und personalisierte Bildung anbieten.[94] Für praktisch jede Arbeit, die der Gesellschaft bei guter Ausführung zugutekommt, wäre es womöglich früher oder später besser, sie einer AGI zu überlassen. Die Notwendigkeit, für den Lebensunterhalt zu arbeiten, könnte überflüssig werden, wenn der produzierte Wohlstand angemessen umverteilt würde.[94][95] Dies wirft auch die Frage nach dem Platz des Menschen in einer radikal automatisierten Gesellschaft auf.

AGI könnte auch dabei helfen, rationale Entscheidungen zu treffen oder Katastrophen vorherzusehen und zu verhindern. Sie könnte auch dazu beitragen, die Vorteile potenziell katastrophaler Technologien wie Nanotechnologie oder Geoengineering für die Menschheit nutzbar zu machen und gleichzeitig die damit verbundenen Risiken zu vermeiden.[96] Wenn das Hauptziel einer AGI darin bestünde, existenzielle Katastrophen wie das Aussterben der Menschheit zu verhindern (was schwierig sein könnte, wenn sich die Vulnerable-World-Hypothese bewahrheitet),[97] könnte sie Maßnahmen ergreifen, die entsprechenden Risiken drastisch zu verringern[96] und gleichzeitig die Auswirkungen dieser Maßnahmen auf unsere Lebensqualität minimieren.

Risiken[Bearbeiten | Quelltext bearbeiten]

Da die mit AGI assoziierten Risiken von vielen Experten als essenziell eingestuft werden, forderte das Future of Life Institute (FLI) im März 2023 in einem offenen Brief dazu auf, die Entwicklung für sechs Monate zu pausieren, bis die Fragen der Regulierung geklärt seien. Zu den Unterzeichnern zählten Branchengrößen wie Elon Musk, Apple-Mitgründer Steve Wozniak und der Stability-AI-Chef, Emad Mostaque (Stable Diffusion).[98] Bis Februar 2024 hatten bereits über 33.000 Menschen den offenen Brief des Future of Life Institutes unterzeichnet.[99]

Eine Metaanalyse aus dem Jahr 2023, die auf der Auswertung von 18 für das Thema relevanten Studien beruht, weist auf folgende Risiken hin, die in Zusammenhang mit AGI auftreten könnten:[100]

  • AGI könnte sich der Kontrolle durch Menschen entziehen
  • AGI könnte Ziele verfolgen oder entwickeln, die Sicherheitsrisiken darstellen
  • Es könnten sich AGIs entwickeln, die Defizite in den Bereichen Ethik, Moral und Werte haben
  • Bei unsachgemäßer Handhabung oder in den falschen Händen könnten zweifelhafte politische oder militärische Ziele vorangetrieben werden

Die für die Studie verantwortlichen Wissenschaftler der australischen University of the Sunshine Coast, wiesen in ihrer Schlussbetrachtung eindringlich darauf hin, wie wichtig es sei, sich bereits präventiv mit diesen potenziellen Gefahren zu befassen und sie zugleich weiterhin zu erforschen.[100]

Auf EU-Ebene unterscheidet das Gesetz über künstliche Intelligenz nach folgenden drei Risikoklassen, für die unterschiedliche Anforderungen hinsichtlich Regulierung und Vorschriften zur Transparenz gelten:[101][102]

  • unannehmbares Risiko
  • hohes Risiko und (sogenannte „Hochrisiko-KI-Systeme“)
  • geringes oder minimales Risiko

KI-Systemen, denen ein unannehmbares Risiko bestätigt wurde, sind verboten, wobei sowohl das Inverkehrbringen, als auch die Inbetriebnahme und die Verwendung strafbar sind.[102]

Existenzielles Risiko[Bearbeiten | Quelltext bearbeiten]

AGI kann mehrere Arten von existenziellen Risiken darstellen, d. h. Risiken, die „das vorzeitige Aussterben intelligenten irdischen Lebens, oder die dauerhafte und drastische Zerstörung seines Potenzials für eine wünschenswerte künftige Entwicklung"[103] bedrohen. Das Risiko des Aussterbens der Menschheit durch AGI ist Gegenstand vieler Debatten, aber es besteht auch die Möglichkeit, dass die Entwicklung von AGI zu einer dauerhaft beschädigten Zukunft führen würde. Vor allem könnte sie dazu benutzt werden, die Wertvorstellungen ihrer Entwickler zu verbreiten und zu bewahren. Wenn die Menschheit noch immer moralische blinde Flecken hat, ähnlich der Sklaverei in der Vergangenheit, könnte die AGI diese irreversibel verfestigen und moralischen Fortschritt verhindern.[104] Darüber hinaus könnte AGI die Massenüberwachung und Indoktrination erleichtern, was zur Schaffung eines stabilen, repressiven, totalitären Weltregimes genutzt werden könnte.[105][106] Es besteht auch ein Risiko für die Maschinen selbst. Sollten in Zukunft massenhaft empfindungsfähige oder anderweitig moralisch wertvolle Maschinen geschaffen werden, könnte es eine existenzielle Katastrophe bedeuten, einen zivilisatorischen Weg einzuschlagen, der ihr Wohlergehen und ihre Interessen auf unbestimmte Zeit vernachlässigt.[107][108] In Anbetracht der Verbesserungen, die AGI für die Zukunft der Menschheit und die Verringerung anderer existenzieller Risiken bedeuten könnte, bezeichnet Toby Ord diese existenziellen Risiken als „ein Argument dafür, mit gebührender Vorsicht vorzugehen", nicht dafür, „die KI aufzugeben".[105]

Risiko von Kontrollverlust und Ende der Menschheit[Bearbeiten | Quelltext bearbeiten]

Die These, dass KI ein existenzielles Risiko für den Menschen darstelle und diesem Risiko  mehr Aufmerksamkeit geschenkt werden müsse, ist umstritten, wurde aber 2023 von vielen Persönlichkeiten des öffentlichen Lebens, KI-Forschern und CEOs von KI-Unternehmen wie Elon Musk, Bill Gates, Geoffrey Hinton, Yoshua Bengio, Demis Hassabis und Sam Altman unterstützt.[109][110]

Im Jahr 2014 kritisierte Stephen Hawking die weit verbreitete Gleichgültigkeit:

Angesichts einer möglichen Zukunft mit unkalkulierbaren Vorteilen und Risiken tun die Experten doch sicher alles, um das bestmögliche Ergebnis zu erzielen, oder? Falsch. Würde uns eine überlegene außerirdische Zivilisation eine Nachricht schicken, in der es heißt: „Wir werden in ein paar Jahrzehnten eintreffen", würden wir dann einfach antworten: „OK, ruft uns an, wenn ihr kommt – wir lassen das Licht an"? Wahrscheinlich nicht – aber das ist mehr oder weniger das, was mit KI passiert.[111]

Das potenzielle Schicksal der Menschheit wird manchmal mit dem Schicksal von Gorillas verglichen, die durch menschliche Aktivitäten bedroht werden. Der Vergleich besagt, dass die größere Intelligenz des Menschen es ihm ermöglicht hat, die Gorillas zu beherrschen, sodass sie nun in einer Weise verwundbar sind, die sie nicht vorhersehen konnten. Infolgedessen ist der Gorilla zu einer gefährdeten Art geworden, nicht aus Böswilligkeit, sondern einfach als Kollateralschaden menschlicher Aktivitäten.[112]

Der Skeptiker Yann LeCun ist der Ansicht, dass AGIs nicht den Wunsch haben werden, die Menschheit zu beherrschen, und dass wir uns davor hüten sollten, sie zu vermenschlichen und ihre Absichten so zu interpretieren, wie wir es bei Menschen tun würden. Er meinte, dass Menschen nicht „zugleich klug genug sein werden, um superintelligente Maschinen zu entwerfen, und dumm genug, um ihnen schwachsinnige Ziele ohne Schutzmaßnahmen zu geben".[113] Auf der anderen Seite legt das Konzept der instrumentellen Konvergenz nahe, dass intelligente Akteure, fast unabhängig von ihren Zielen, instrumentelle Gründe haben werden, nach dem eigenen Erhalt und mehr Macht zu streben, rein als Zwischenschritte zum Erreichen ihrer Ziele. Dabei ist nicht vorausgesetzt, dass sie Emotionen haben.[114]

Viele Wissenschaftler, die sich Sorgen um existenzielle Risiken machen, plädieren für mehr Forschung zur Lösung des „Kontrollproblems", um die Frage zu beantworten: Welche Arten von Sicherheitsvorkehrungen und Algorithmen können Programmierer implementieren, um die Wahrscheinlichkeit zu maximieren, dass ihre sich rekursiv verbessernde KI sich auch nach Erreichen der Superintelligenz weiterhin freundlich und nicht destruktiv verhalten wird?[115][116] Die Lösung des Kontrollproblems wird durch das KI-Wettrüsten (das zu einem race to the bottom bei Sicherheitsvorkehrungen führen könnte, um Produkte vor der Konkurrenz auf den Markt zu bringen)[117] und den Einsatz von KI in Waffensystemen[118] erschwert.

Die These, dass KI ein existenzielles Risiko darstellen kann, hat auch Gegenstimmen. Skeptiker argumentieren in der Regel, AGI sei kurzfristig unwahrscheinlich, oder die Sorge um AGI lenke von anderen Problemen im Zusammenhang mit aktueller KI ab.[119] Der ehemalige Google-Betrugsbeauftragte Shuman Ghosemajumder ist der Ansicht, dass viele Menschen außerhalb der Technologiebranche bestehende Chatbots und large language models (LLMs) bereits so wahrnehmen, als seien sie AGI, was zu weiteren Missverständnissen und Ängsten führt.[120]

Skeptiker werfen Vertretern der These manchmal vor, sie sei kryptoreligiös, wobei der irrationale Glaube an die Möglichkeit einer Superintelligenz den irrationalen Glauben an einen allmächtigen Gott ersetze.[121] Einige Forscher glauben, die Kommunikationskampagnen bestimmter KI-Gruppen (wie OpenAI, Anthropic, DeepMind und Conjecture) zum existenziellen Risiko der KI könnten ein Versuch sein, das Interesse an ihren Produkten zu steigern.[122][123]

Im Jahr 2023 gaben die CEOs von Google DeepMind, OpenAI und Anthropic zusammen mit anderen Branchenführern und Forschern eine gemeinsame Erklärung ab, in der sie erklärten, dass „die Minderung des Risikos des Aussterbens durch KI neben anderen Risiken von gesellschaftlichem Ausmaß wie Pandemien und Atomkrieg eine globale Priorität sein sollte."[110]

Massen-Arbeitslosigkeit[Bearbeiten | Quelltext bearbeiten]

Forscher von OpenAI schätzten, dass für „80 % der US-Arbeitskräfte mindestens 10 % ihrer Arbeitsaufgaben von der Einführung von LLMs betroffen sein könnten, während für etwa 19 % der Arbeitnehmer mindestens 50 % ihrer Aufgaben betroffen sein könnten"[124][125] Sie halten Büroangestellte für am stärksten betroffen, z. B. Mathematiker, Buchhalter oder Webdesigner.[125] AGI könnten eine bessere Autonomie, Fähigkeit zur Entscheidungsfindung und Interaktion mit anderen Computerwerkzeugen aufweisen, aber auch robotisierte Körper steuern.

Stephen Hawking zufolge werden die Auswirkungen der Automatisierung auf die Lebensqualität davon abhängen, wie der Wohlstand umverteilt wird:[126]

Jeder könnte ein Leben in luxuriöser Freizeit genießen, wenn der maschinell produzierte Reichtum geteilt würde, oder die meisten Menschen könnten elendig arm enden, wenn die Maschinenbesitzer erfolgreich damit wären, gegen die Umverteilung des Reichtums zu lobbyieren. Bislang scheint der Trend zur zweiten Option zu gehen, wobei die Technologie die Ungleichheit immer weiter vorantreibt.

Elon Musk ist der Ansicht, dass die Automatisierung der Gesellschaft die Einführung eines bedingungslosen Grundeinkommens durch die Regierungen erfordern wird.[127]

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. OpenAI Charter. openai.com. Abgerufen am 2023-11-06.
  2. a b c Shane Legg: Machine Super Intelligence. Universität Lugano, Dissertation, S. 4–11, 16–22, 2008-06. Abgerufen am 2023-11-06.
  3. Nick Barney: Artificial Superintelligence. Enterprise AI, techtarget.com. Abgerufen am 2023-11-06.
  4. MaryAnne M. Gobble: The Road to Artificial General Intelligence. In: Research-Technology Management. Band 62, Nr. 3, 4. Mai 2019, ISSN 0895-6308, S. 55–59, doi:10.1080/08956308.2019.1587336.
  5. Pei Wang, Ben Goertzel: Theoretical foundations of artificial general intelligence. Atlantis Press, Amsterdam 2012, ISBN 978-94-91216-62-6.
  6. Hannes Grassegger und Mikael Krogerus: Die Menschheit zur vollen Entfaltung bringen. In: Das Magazin No. 44, 2023-11-04, S. 10. Abgerufen am 2023-11-06.
  7. Roman Yampolskiy: Turing Test as a Defining Feature of AI-Completeness. In: Artificial Intelligence, Evolutionary Computation and Metaheuristics (AIECM), 3–17, 2012. Abgerufen am 2023-11-06.
  8. Lakshmi Varanasi: AI models like ChatGPT and GPT-4 are acing everything from the bar exam to AP Biology. Here's a list of difficult exams both AI versions have passed. In: Business Insider, 2023-03-21. Abgerufen am 2023-11-06.
  9. Caleb Naysmith: 6 Jobs Artificial Intelligence Is Already Replacing and How Investors Can Capitalize on It. yahoo.com, 2023-02-07. Abgerufen am 2023-11-06.
  10. Cade Metz und Karen Weise: How ‘A.I. Agents’ That Roam the Internet Could One Day Replace Workers. In: New York Times, 2023-10-16. Abgerufen am 2023-11-06.
  11. Stuart C. Shapiro: Artificial Intelligence. In: Stuart C. Shapiro (Hrsg.): Encyclopedia of Artificial Intelligence. 2. Auflage. New York Februar 2016, S. 54–57.
  12. Roman V. Yampolskiy,: Turing Test as a Defining Feature of AI-Completeness. In: Artificial Intelligence, Evolutionary Computation and Metaheuristics. 2012.
  13. Luis von Ahn, Manuel Blum, Nicholas Hopper, John Langford: CAPTCHA: Using Hard AI Problems for Security. In: Proceedings of Eurocrypt. März 2016, S. 294–311.
  14. Richard Bergmair: Natural Language Steganography and an "AI-complete" Security Primitive. CiteSeerX, Januar 2006.
  15. a b Daniel Crevier: AI: The Tumultuous Search for Artificial Intelligence. NY: BasicBooks, New York 1993, ISBN 0-465-02997-3.
  16. Andreas Kaplan: Artificial Intelligence, Business and Civilization – Our Fate Made in Machines. Mai 2022.
  17. Scientist on the Set: An Interview with Marvin Minsky. 16. Juli 2012, abgerufen am 11. April 2024 (englisch).
  18. Marvin Minsky zu Darach (1970), zitiert in Crevier (1993, p. 109).
  19. a b Stuart J. Russell, Peter Norvig: Artificial intelligence: a modern approach (= Prentice Hall series in artificial intelligence). 2nd ed Auflage. Prentice Hall/Pearson Education, Upper Saddle River, N.J 2003, ISBN 0-13-790395-2.
  20. NRC: Developments in Artificial Intelligence. In: Funding a Revolution: Government Support for Computing Research. National Academy Press, 1999.
  21. Daniel Crevier: AI: the tumultuous history of the search for artificial intelligence. Hrsg.: NY: Basic Books. Basic books, New York 1993, ISBN 0-465-02997-3, S. 161–162.
  22. Daniel Crevier: AI: The Tumultuous Search for Artificial Intelligence. NY: BasicBooks, New York 1993, ISBN 0-465-02997-3, S. 209–212.
  23. John McCarthy: Reply to Lighthill. Stanford University, 2000.
  24. John Markoff: Behind Artificial Intelligence, a Squadron of Bright Real People. In: The New York Times. Oktober 2005.
  25. a b c Stuart Russel, Peter Norvig: Artificial Intelligence: A Modern Approach. 2. Auflage. Upper Saddle River, 2003, ISBN 0-13-790395-2, S. 25–26.
  26. Trends in the Emerging Tech Hype Cycle. In: Gartner Reports.
  27. a b Hans Moravec: Mind Children. Harvard University Press, 1988, S. 20.
  28. Stevan Harnad: The symbol grounding problem. In: Physica D: Nonlinear Phenomena. Band 42, Nr. 1-3, Juni 1990, S. 335–346, doi:10.1016/0167-2789(90)90087-6 (elsevier.com [abgerufen am 11. April 2024]).
  29. Mark Gubrud: Nanotechnology and International Security. In: Fifth Foresight Conference on Molecular Nanotechnology. November 1997.
  30. a b Marcus Hutter: Universal Artificial Intellegence (= Texts in Theoretical Computer Science An EATCS Series). Springer Berlin Heidelberg, Berlin, Heidelberg 2005, ISBN 3-540-22139-5, doi:10.1007/b138233.
  31. Shane Legg: Machine Super Intelligence. University of Lugano, 2008.
  32. Artificial General Intelligence: 7th International Conference, AGI 2014, Quebec City, QC, Canada, August 1-4, 2014. Proceedings (= Lecture Notes in Computer Science. Band 8598). Springer International Publishing, Cham 2014, ISBN 978-3-319-09273-7, doi:10.1007/978-3-319-09274-4.
  33. Who coined the term "AGI"? In: goertzel.org. Abgerufen am 11. April 2024.
  34. Advances in artificial general intelligence: concepts, architectures and algorithms: proceedings of the AGI Workshop 2006 (= Frontiers in artificial intelligence and applications. v. 157). IOS Press, Amsterdam ; Washington, DC 2007, ISBN 978-1-58603-758-1.
  35. First International Summer School in Artificial General Intelligence, Main summer school: June 22 – July 3, 2009, OpenCog Lab: July 6-9, 2009. Abgerufen am 11. April 2024.
  36. Избираеми дисциплини 2009/2010 – пролетен триместър. In: Elective courses 2009/2010 – spring trimester.
  37. Избираеми дисциплини 2010/2011 – зимен триместър. In: Elective courses 2010/2011 – winter trimester.
  38. Henry Shevlin, Karina Vold, Matthew Crosby, Marta Halina: The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge. In: EMBO reports. Band 20, Nr. 10, 4. Oktober 2019, ISSN 1469-221X, doi:10.15252/embr.201949177, PMC 6776890 (freier Volltext).
  39. a b Sébastien Bubeck et al.: Sparks of Artificial General Intelligence: Early experiments with GPT-4. 27. März 2023.
  40. Rolf Pfeifer, Josh Bongard, Simon Grand: How the body shapes the way we think: a new view of intelligence. MIT Press, Cambridge, Mass 2007, ISBN 978-0-262-16239-5 (worldcat.org [abgerufen am 11. April 2024]).
  41. Philip Boucher: Concluding remarks. In: How artificial intelligence works. European Parliamentary Research Service, März 2019.
  42. Beyond Mad?: The Race For Artificial General Intelligence. (PDF) Abgerufen am 11. April 2024.
  43. Paul Allen, Mark Greaves: The Singularity Isn't Near. MIT Technology Review, 12. Oktober 2011.
  44. Alan Winfield: Artificial intelligence will not turn into a Frankenstein's monster. The Guardian.
  45. a b c William F. Clocksin: Artificial intelligence and the future. In: Philosophical Transactions of the Royal Society of London. Series A: Mathematical, Physical and Engineering Sciences. Band 361, Nr. 1809, 15. August 2003, ISSN 1364-503X, S. 1721–1748, doi:10.1098/rsta.2003.1232.
  46. Ragnar Fjelland: Why general artificial intelligence will not be realized. In: Humanities and Social Sciences Communications. Band 7, Nr. 1, 17. Juni 2020, ISSN 2662-9992, doi:10.1057/s41599-020-0494-4.
  47. John McCarthy: From here to human-level AI. In: Artificial Intelligence. Band 171, Nr. 18, Dezember 2007, S. 1174–1182, doi:10.1016/j.artint.2007.10.009 (elsevier.com [abgerufen am 11. April 2024]).
  48. Raffi Khatchadourian: The Doomsday Invention: Will artificial intelligence bring us utopia or destruction? In: The New Yorker. 23. November 2015.
  49. V.C. Müller, Nick Bostrom: Future progress in artificial intelligence: A survey of expert opinion. In: Fundamental issues of artificial intelligence. Springer, 2016, S. 555–572.
  50. Stuart Armstrong, Kaj Sotala: How We’re Predicting AI—or Failing To. In: Beyond AI: Artificial Dreams. University of West Bohemia, Pilsen 2012, S. 52–75.
  51. Microsoft Now Claims GPT-4 Shows 'Sparks' of General Intelligence. Abgerufen am 24. März 2023.
  52. Cary Shimek: AI Outperforms Humans in Creativity Test. Neuroscience News, 6. Juli 2023.
  53. Erik E. Guzik, Christian Byrge, Christian Gilde: The originality of machines: AI takes the Torrance Test. In: Journal of Creativity. Band 33, Nr. 3, Dezember 2023, S. 100065, doi:10.1016/j.yjoc.2023.100065 (elsevier.com [abgerufen am 11. April 2024]).
  54. Max Tegmark: The 'Don't Look Up' Thinking That Could Doom Us With AI. Time Magazine, 25. April 2023.
  55. Tristan Bove: CEO of Google’s DeepMind says we could be ‘just a few years’ from A.I. that has human-level intelligence. Fortune, 3. Mai 2023.
  56. Zohaib Ahmed: When will the world see AGI? Elon Musk, Sam Altman & Geoffrey Hinton make these bold predictions. Indian Express, 8. November 2023.
  57. The ‘Godfather of AI’ Has a Hopeful Plan for Keeping Future AI Friendly. Wired, 11. August 2023.
  58. How Soon is Now? Predicting the Expected Arrival Date of AGI- Artificial General Intelligence. Rupert Macey-Dare, Universität Oxford, 30. Juni 2023.
  59. Cem Dilmegani: When will singularity happen? 995 experts’ opinions on AGI. In: research.aimultiple.com. 8. August 2017, abgerufen am 5. November 2021 (amerikanisches Englisch).
  60. Will Douglas Heaven: Artificial general intelligence: Are we close, and does it even make sense to try? MIT Technology Review, 2020-10-15. Abgerufen am 2023-11-06.
  61. Artificial general intelligence (= Cognitive technologies). Springer, Berlin ; New York 2007, ISBN 978-3-540-23733-4.
  62. a b c Ray Kurzweil: The Singularity is Near. Viking Press, 2005, S. 260.
  63. a b c Ben Goertzel: Human-level artificial general intelligence and the possibility of a technological singularity. In: Artificial Intelligence. Band 171, Nr. 18, Dezember 2007, S. 1161–1173, doi:10.1016/j.artint.2007.10.011 (elsevier.com [abgerufen am 11. April 2024]).
  64. Katja Grace: Error in Armstrong and Sotala 2012. In: AI Impacts. 2016.
  65. a b Martin V. Butz: Towards Strong AI. In: KI - Künstliche Intelligenz. Band 35, Nr. 1, März 2021, ISSN 0933-1875, S. 91–101, doi:10.1007/s13218-021-00705-x.
  66. Feng Liu, Yong Shi, Ying Liu: Intelligence Quotient and Intelligence Grade of Artificial Intelligence. In: Annals of Data Science. Band 4, Nr. 2, Juni 2017, ISSN 2198-5804, S. 179–191, doi:10.1007/s40745-017-0109-0.
  67. Jörn Brien: Google-KI doppelt so schlau wie Siri. 5. Oktober 2017.
  68. Gary Grossman: We're entering the AI twilight zone between narrow and general AI. In: Venture Beat. 3. September 2020.
  69. Katyanna Quach: A developer built an AI chatbot using GPT-3 that helped a man speak again to his late fiancée. OpenAI shut it down. In: The Register.
  70. Kyle Wiggers: DeepMind's new AI can perform over 600 tasks, from playing games to controlling robots. In: TechCrunch. 13. Mai 2022.
  71. Cade Metz: The Godfather of A.I.' Leaves Google and Warns of Danger Ahead. In: The New York Times. 1. Mai 2023.
  72. John Nosta: The Accelerating Path to Artificial General Intelligence. In: Psychology Today. 5. Januar 2024.
  73. Andreas Sandberg, Nick Boström: Whole Brain Emulation: A Roadmap. In: Future of Humanity Institute. Technical Report #2008-3. Oxford University, 2008.
  74. D. Drachman: Do we have brain to spare? In: Neurology. Nr. 64, 2005.
  75. Hans Moravec: Mind Children. Harvard University Press, 1988.
  76. Amalie Holmgaard Mersh: Decade-long European research project maps the human brain. In: euractiv. 15. September 2023.
  77. a b Angela Thornton: How uploading our minds to a computer might become possible. In: The Conversation. 26. Juni 2023.
  78. Domenico Vicianza: A new supercomputer aims to closely mimic the human brain — it could help unlock the secrets of the mind and advance AI. In: The Conversation. 18. Dezember 2023.
  79. Nikhil Swaminathan: Glia—the other brain cells. In: Discover. Februar 2011.
  80. Symbols and embodiment: debates on meaning and cognition. Oxford University Press, Oxford ; New York 2008, ISBN 978-0-19-921727-4 (worldcat.org [abgerufen am 11. April 2024]).
  81. John R. Searle: Minds, brains, and programs. In: Behavioral and Brain Sciences. Band 3, Nr. 3, September 1980, ISSN 0140-525X, S. 417–424, doi:10.1017/S0140525X00005756 (cambridge.org [abgerufen am 11. April 2024]).
  82. a b c Stuart Russel, Peter Norvig: Artificial Intelligence: A Modern Approach. 2. Auflage. 2003, ISBN 0-13-790395-2, S. 947.
  83. Thomas Nagel: What Is It Like to Be a Bat? In: The Philosophical Review. Band 83, Nr. 4, Oktober 1974, S. 435, doi:10.2307/2183914, JSTOR:2183914.
  84. A. M. Turing: I.—COMPUTING MACHINERY AND INTELLIGENCE. In: Mind. Band LIX, Nr. 236, 1. Oktober 1950, ISSN 1460-2113, S. 433–460, doi:10.1093/mind/LIX.236.433 (oup.com [abgerufen am 11. April 2024]).
  85. Kaj Sotala, Roman V Yampolskiy: Responses to catastrophic AGI risk: a survey. In: Physica Scripta. Band 90, Nr. 1, 1. Januar 2015, ISSN 0031-8949, S. 018001, doi:10.1088/0031-8949/90/1/018001.
  86. Eliezer Yudkowsky: Artificial General Intelligence. In: Annual Review of Psychology. Nr. 49. Springer, 2008, S. 585–612.
  87. Bill Joy: Why the future doesn't need us. In: Wired. April 2000.
  88. Alex P. James: The Why , What , and How of Artificial General Intelligence Chip Development. In: IEEE Transactions on Cognitive and Developmental Systems. Band 14, Nr. 2, Juni 2022, ISSN 2379-8920, S. 333–347, doi:10.1109/TCDS.2021.3069871 (ieee.org [abgerufen am 11. April 2024]).
  89. Jing Pei, Lei Deng, Sen Song, Mingguo Zhao, Youhui Zhang, Shuang Wu, Guanrui Wang, Zhe Zou, Zhenzhi Wu, Wei He, Feng Chen, Ning Deng, Si Wu, Yu Wang, Yujie Wu, Zheyu Yang, Cheng Ma, Guoqi Li, Wentao Han, Huanglong Li, Huaqiang Wu, Rong Zhao, Yuan Xie, Luping Shi: Towards artificial general intelligence with hybrid Tianjic chip architecture. In: Nature. Band 572, Nr. 7767, August 2019, ISSN 0028-0836, S. 106–111, doi:10.1038/s41586-019-1424-8.
  90. Mohit Pandey, Michael Fernandez, Francesco Gentile, Olexandr Isayev, Alexander Tropsha, Abraham C. Stern, Artem Cherkasov: The transformational role of GPU computing and deep learning in drug discovery. In: Nature Machine Intelligence. Band 4, Nr. 3, 23. März 2022, ISSN 2522-5839, S. 211–221, doi:10.1038/s42256-022-00463-x.
  91. George Deane: Machines That Feel and Think: The Role of Affective Feelings and Mental Action in (Artificial) General Intelligence. In: Artificial Life. Band 28, Nr. 3, 4. August 2022, ISSN 1064-5462, S. 289–309, doi:10.1162/artl_a_00368 (mit.edu [abgerufen am 11. April 2024]).
  92. Artificial General Intelligence – Do[es] the cost outweigh benefits? 23. August 2021, abgerufen am 11. April 2024.
  93. How we can Benefit from Advancing Artificial General Intelligence (AGI) – Unite.AI. In: www.unite.ai. Abgerufen am 11. April 2024.
  94. a b c Jules Talty, Stephan Julien: What Will Our Society Look Like When Artificial Intelligence Is Everywhere? In: Smithsonian Magazine.
  95. Matt Stevenson: Answers to Stephen Hawking's AMA are Here! In: Wired. 8. Oktober 2015.
  96. a b Nick Bostrom: Superintelligence: paths, dangers, strategies. Reprinted with corrections 2017 Auflage. Oxford University Press, Oxford, United Kingdom 2017, ISBN 978-0-19-967811-2.
  97. Kelsey Piper: How technological progress is making it likelier than ever that humans will destroy ourselves. In: Vox. 19. November 2018.
  98. KI-Regulierung. Von Musk und Co geforderte KI-Entwicklungspause verheimlicht reale Gefahren vom 2. April 2023 Der Standard, abgerufen am 10. Februar 2024
  99. Pause Giant AI Experiments: An Open Letter vom 22. März 2023 Future of Life Institute, abgerufen am 10. Februar 2024
  100. a b S. McLean, G.J.M. Read, J. Thompson, C. Baber, N.A. Stanton & P.M. Salmon (2023): The risks associated with Artificial General Intelligence: A systematic review. Journal of Experimental & Theoretical Artificial Intelligence, 35:5, 649–663, doi:10.1080/0952813X.2021.1964003
  101. Artificial Intelligence Act. Verordnung zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über Künstliche Intelligenz) think digital, abgerufen am 11. Februar 2024
  102. a b Francois Heynike: KPMG Law Insights. Der AI Act kommt: EU möchte Risiken von KI in den Griff bekommen vom 19. Oktober 2023 KPMG, abgerufen am 11. Februar 2024
  103. Ben Doherty: Climate change an 'existential security risk' to Australia, Senate inquiry says. In: The Guardian. 17. Mai 2018.
  104. William MacAskill: What we owe the future. First edition Auflage. Basic Books, New York, NY 2022, ISBN 978-1-5416-1862-6.
  105. a b Toby Ord: The precipice: existential risk and the future of humanity. Bloomsbury academic, london New York (N.Y.) 2020, ISBN 978-1-5266-0023-3.
  106. Nor Al-Sibai: OpenAI Chief Scientist Says Advanced AI May Already Be Conscious. In: Futurism. 13. Februar 2022.
  107. Paul Conrad Samuelsson: Artificial Consciousness: Our Greatest Ethical Challenge. In: Philosophy Now. 2019.
  108. Brian Kateman: AI Should Be Terrified of Humans. In: TIME. 23. Dezember 2023.
  109. Kevin Roose: A.I. Poses 'Risk of Extinction,' Industry Leaders Warn. In: The New York Times. 30. Mai 2023.
  110. a b Statement on AI Risk. In: Center for AI Safety. 30. Mai 2023, abgerufen am 12. April 2024.
  111. Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough? In: The Independent (UK). Abgerufen am 12. April 2024.
  112. Mario Herger: The Gorilla Problem. In: Enterprise Garage. Abgerufen am 12. April 2024.
  113. The fascinating Facebook debate between Yann LeCun, Stuart Russel and Yoshua Bengio about the risks of strong AI. In: parlonfutur.com. 7. Oktober 2019, abgerufen am 12. April 2024.
  114. Kathleen Miles: Artificial Intelligence May Doom The Human Race Within A Century, Oxford Professor Says. In: Huffpost. 22. August 2014, abgerufen am 12. April 2024.
  115. Kaj Sotala, Roman V Yampolskiy: Responses to catastrophic AGI risk: a survey. In: Physica Scripta. Band 90, Nr. 1, 1. Januar 2015, ISSN 0031-8949, S. 018001, doi:10.1088/0031-8949/90/1/018001.
  116. Nick Bostrom: Superintelligence: paths, dangers, strategies. Reprinted with corrections 2017 Auflage. Oxford University Press, Oxford, United Kingdom 2017, ISBN 978-0-19-967811-2.
  117. Andrew R. Chow, Billy Perrigio: The AI Arms Race Is On. Start Worrying. In: TIME. 16. Februar 2023.
  118. Gemma Tetlow: AI arms race risks spiralling out of control, report warns. In: www.ft.com. 12. Januar 2017.
  119. Dan Milmo, Kiran Stacey: Experts disagree over threat posed but artificial intelligence cannot be ignored. In: The Guardian. 25. September 2017.
  120. Humanity, Security & AI, Oh My! (with Ian Bremmer & Shuman Ghosemajumder). In: CAFE. 20. Juli 2023, abgerufen am 12. April 2024.
  121. James Hamblin: But What Would the End of Humanity Mean for Me? In: The Atlantic. 9. Mai 2014.
  122. James Titcomb: Big Tech is stoking fears over AI, warn scientists. In: The Telegraph. 30. Oktober 2023.
  123. John Davidson: Google Brain founder says big tech is lying about AI extinction danger. In: Financial Review. 30. Oktober 2023, abgerufen am 12. April 2024.
  124. Tyna Eloundou et al.: GPTs are GPTs: An early look at the labor market impact potential of large language models. In: Open AI. 17. März 2023, abgerufen am 12. April 2024.
  125. a b Luke Hurst: OpenAI says 80 % of workers could see their jobs impacted by AI. These are the jobs most affected. In: euronews. 23. März 2023, abgerufen am 12. April 2024.
  126. Answers to Stephen Hawking’s AMA are Here! In: WIRED. Abgerufen am 12. April 2024.
  127. Ayelet Sheffey: Elon Musk says we need universal basic income because 'in the future, physical work will be a choice'. In: Business Insider. 20. August 2021, abgerufen am 12. April 2024.