Technologische Singularität

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Unter technologischer Singularität werden verschiedene Theorien in der Futurologie zusammengefasst. Überwiegend wird darunter der Zeitpunkt verstanden, ab dem sich Maschinen mittels künstlicher Intelligenz (KI) selbst verbessern können. Das würde den technischen Fortschritt so beschleunigen, dass die Zukunft der Menschheit hinter diesem Ereignis nicht mehr vorhersehbar ist.

Der prognostizierte Zeitpunkt der technologischen Singularität wurde mehrfach um Jahrzehnte in die Zukunft verschoben. Allerdings sei wahrscheinlich, dass sie überraschend eintritt, womöglich selbst für die an der Entwicklung Beteiligten.[1]

Der Begriff ist eng verbunden mit den Theorien und Ideen des Transhumanismus und des Posthumanismus. Einige ihrer Vertreter gehen davon aus, dass sich durch den damit verbundenen technologischen Fortschritt die Dauer der menschlichen Lebenserwartung maßgeblich steigern bzw. sogar biologische Unsterblichkeit erreichen lässt.[2][3]

Inhalt der Theorie[Bearbeiten]

Exponentielle Leistungsentwicklung im Verlauf der Computergeschichte

Der Erwartung einer technologischen Singularität liegt die Beobachtung zugrunde, dass sich Technik und Wissenschaft seit Anbeginn der Menschheit immer rascher weiterentwickeln und viele zahlenmäßige Entwicklungen wie Wissens- und Wirtschaftsentwicklung einem exponentiellen Wachstum folgen. Dazu zählt insbesondere die Rechenleistung von Computern, worauf Gordon Moore 1965 hinwies. Seit etwa 1940 verdoppelt sich die für 1.000 US-Dollar erhältliche Rechenleistung alle 18 Monate, bisher um zwölf Größenordnungen. Diesem rasanten technischen Fortschritt stehe die konstante Leistungsfähigkeit des durchschnittlichen menschlichen Geistes gegenüber. Hans Moravec bezifferte die Rechenleistung des Gehirns auf 100 Teraflops, Raymond Kurzweil auf 10.000 Teraflops. Diese Rechenleistung haben Supercomputer bereits erreicht. Auch wenn man der menschlichen Denkfähigkeit eine höhere Rechenleistung zuordne, sei die technologische Singularität nur eine Frage der Zeit.

Anthony Berglas wagt am Beispiel der Spracherkennung einen groben Vergleich der Rechenleistung von Mensch und Computer. Heutige Desktopcomputer würden für eine Spracherkennung auf menschlichem Niveau ausreichen. Im menschlichen Gehirn machen bekannte Regionen, die zur Spracherkennung verwendet werden, sicher mehr als 0,01 % des Gesamtgehirns aus. Ließe sich die restliche menschliche Intelligenz ebenso gut in Algorithmen umsetzen, fehlten nur wenige Größenordnungen, bis Computer die Denkfähigkeit von Menschen erreichen.[4] An der Stelle geht Berglas nicht darauf ein, welche über das bloße Identifizieren der gesprochenen Wörter hinausgehende Funktionalität die in diesem Vergleich genannten Hirnregionen bieten.

Als weitere Grundbedingung für eine Singularität kommt neben der reinen Rechenleistung die starke künstliche Intelligenz hinzu, die kreativ über Probleme nachdenken kann. Eine starke künstliche Intelligenz mit mehr Rechenleistung als das menschliche Gehirn wäre eine sogenannte Superintelligenz. Würde sie sich selbst verbessern, käme es zu einem rasanten technischen Fortschritt, dem die Menschen verstandesmäßig nicht mehr folgen könnten.

Neben künstlicher Intelligenz werden auch andere Technologien gehandelt, die zu einer technologischen Singularität führen könnten: Technische Implantate mit Gehirn-Computer-Schnittstellen oder Gentechnik könnten die Leistungsfähigkeit des menschlichen Geistes derart steigern, dass Menschen ohne diese Ausrüstung der Entwicklung nicht mehr folgen könnten. Diese Szenarien werden in der Futurologie unter dem Begriff „erweiterte Intelligenz” (engl. augmented intelligence) geführt.

Entwicklung der Theorien[Bearbeiten]

John von Neumann um 1940

Erste Erwähnungen (1958–1970)[Bearbeiten]

Die erste bekannte Erwähnung des Konzepts einer technologischen Singularität geht auf Stanislaw Ulam zurück, der sich im Mai 1958 folgendermaßen zu einer Unterhaltung mit John von Neumann äußerte:

„Ein Gespräch drehte sich um den sich stets beschleunigenden technologischen Fortschritt und um die Veränderungen in der Art und Weise menschlichen Lebens, die den Anschein machen, auf eine unumgängliche Singularität in der Geschichte der Menschheit hinauszulaufen, nach der das Leben der Menschen, so wie wir es kennen, nicht weitergehen kann.“

1965 beschrieb der Statistiker I. J. Good ein Konzept, das der heute vorherrschenden Bedeutung von Singularität insofern noch näher kam, als es die Rolle künstlicher Intelligenz mit einbezog:

„Eine ultraintelligente Maschine sei definiert als eine Maschine, die die intellektuellen Fähigkeiten jedes Menschen, und sei er noch so intelligent, bei weitem übertreffen kann. Da der Bau eben solcher Maschinen eine dieser intellektuellen Fähigkeiten ist, kann eine ultraintelligente Maschine noch bessere Maschinen bauen; zweifellos würde es dann zu einer explosionsartigen Entwicklung der Intelligenz kommen, und die menschliche Intelligenz würde weit dahinter zurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch zu machen hat.“

Auch die 1970 erschienene wirtschaftliche Trendanalyse Future Shock von Alvin Toffler bezog sich auf die Singularität.

Vernor Vinge und Ray Kurzweil[Bearbeiten]

Ray Kurzweil (2006)

In den 80er Jahren begann der Mathematiker und Autor Vernor Vinge von einer Singularität zu sprechen, 1993 veröffentlichte er seine Ideen in dem Artikel Technological Singularity.[5] Daraus stammt auch die häufig zitierte Prognose, dass wir „innerhalb von 30 Jahren über die technologischen Mittel verfügen werden, um übermenschliche Intelligenz zu schaffen. Wenig später ist die Ära der Menschen beendet.“

Vinge schreibt, dass übermenschliche Intelligenz, unabhängig davon, ob durch kybernetisch erweiterte menschliche Intelligenz oder durch künstliche Intelligenz erreicht, wiederum noch besser dazu in der Lage sein wird, ihre Intelligenz zu steigern. „Wenn Fortschritt von übermenschlicher Intelligenz vorangetrieben wird“, so Vinge, „wird dieser Fortschritt deutlich schneller ablaufen.“ Diese Art von Rückkopplung soll zu enormem Fortschritt in sehr kurzer Zeit führen.

In dem 2001 veröffentlichten Artikel The Law of Accelerating Returns stellt Ray Kurzweil die These auf, dass das Mooresche Gesetz nur ein Spezialfall eines allgemeineren Gesetzes ist, nach dem die gesamte technologische Evolution verläuft.[6]

Betrachte man die Entwicklung von mechanischen Rechenmaschinen, über Röhren und Transistoren bis zum heutigen Mikroprozessor, so zeige dies eine doppelt exponentielle Steigerung der Leistungsfähigkeit. Die Rechenleistung pro 1000 Dollar verdoppelte sich in den Jahren 1910 bis 1950 im Abstand von drei Jahren (mechanische Rechenmaschinen), von 1950 bis 1966 etwa alle zwei Jahre und jetzt etwa jährlich. Kurzweil glaubt, dass das durch das Mooresche Gesetz beschriebene exponentielle Wachstum sich auch in den Technologien fortsetzen wird, die die heutigen Mikroprozessoren ablösen werden, und letztendlich zur Singularität führen wird, die er als „technischen Wandel“ definiert, der „so schnell und allumfassend ist, dass er einen Bruch in der Struktur der Geschichte der Menschheit darstellt.“

Technologien[Bearbeiten]

Zukunftsforscher spekulieren über verschiedene Technologien, die zum Eintreten einer Singularität beitragen könnten. Allerdings herrscht keine Einigkeit darüber, wann und ob diese Technologien überhaupt verwirklicht werden können.

Eine künstliche Intelligenz mit der Fähigkeit, sich selbst zu verbessern, wird als Seed AI bezeichnet. Viele Anhänger der Singularität meinen, eine Seed AI sei die wahrscheinlichste Ursache einer Singularität.

Viele Anhänger der Singularität halten die Nanotechnologie für eine der größten Bedrohungen der Zukunft der Menschheit (Grey Goo). Aus diesem Grund fordern einige, dass molekulare Nanotechnologie nicht vor Auftreten einer Seed AI praktiziert wird. Das Foresight Institute vertritt dagegen die Meinung, dass ein verantwortungsvoller Umgang mit dieser Technologie auch in Präsingularitätszeiten möglich sei und die Realisierung einer für die Menschheit positiven Singularität dadurch beschleunigt werden könne.

Neben künstlicher Intelligenz und Nanotechnologie wurden auch andere Technologien mit der Singularität in Zusammenhang gebracht: Direkte Gehirn-Computer-Schnittstellen, die zu dem Bereich Augmented Intelligence gezählt werden, könnten zu verbessertem Gedächtnis, umfangreicherem Wissen oder größerer Rechenkapazität unseres Gehirns führen. Auch Sprach- und Handschrifterkennung, leistungssteigernde Medikamente und gentechnische Methoden können hierzu gezählt werden.

Als alternative Methode zur Schaffung künstlicher Intelligenz wurde, in erster Linie von Science-Fiction-Autoren wie Roger Zelazny, die Methode des Mind Uploadings vorgeschlagen. Anstatt Intelligenz direkt zu programmieren, wird hierbei der Aufbau eines menschlichen Gehirns per Scan in den Computer übertragen. Die dazu nötige Auflösung des Scanners, die benötigte Rechenkraft und das erforderliche Wissen über das Gehirn machen dies in der Präsingularitätszeit jedoch eher unwahrscheinlich.

Daneben wurde noch die Emergenz intelligenten Verhaltens aus einem hinreichend komplexen Computernetzwerk, so genannte Schwarmintelligenz, in Betracht gezogen, beispielsweise von George Dyson in dem Buch Darwin Among the Machines.

Die potenzielle Leistungsfähigkeit von Quantencomputern – sollten sie je auf viele Qbits skalierbar sein – ist immens. Gleichzeitig sind Quantencomputer schwer zu programmieren, weil erstens jede Operation alle 2n überlagerten Zustände tangiert und zweitens die Rechnung nicht verfolgt werden kann: Nur am Ende der Rechnung, nach dem Kollaps der Wellenfunktion, ergeben sich n Bits als Ergebnis. Dieses Paradoxon ließ Michael Nielsen auf dem Singularity Summit spekulieren, dass erst die künstlichen Intelligenzen jenseits der Singularität in der Lage sein könnten, Quantencomputer sinnvoll zu benutzen, dass dann aber eine zweite Singularität eintreten könnte, nach der auf Quantencomputern ausgeführte Intelligenzen für ihre Programmierer ebenso unfassbar agierten, wie die klassischen KIs für uns Menschen.[7]

Auswirkungen[Bearbeiten]

In der Mathematik wird der Begriff „singulär“ für Punkte verwendet, an denen eine Funktion nicht definiert oder nicht stetig (differenzierbar) ist, etwa eine Polstelle. Analog dazu bedeutet die technologische Singularität einen abrupten Ausbruch aus dem menschlichen Erfahrungshorizont; ein Ereignis, „nach [dem] das Leben der Menschen, so wie wir es kennen, nicht weitergehen kann“, so Stanislaw Ulam.[8] Heute selbstverständliche Grundprinzipien wie die biologische Evolution könnten außer Kraft treten und die entstandene Superintelligenz könnte ein Verständnis der Wirklichkeit erwerben, das jegliche Vorstellungskraft sprengt; die Auswirkungen könnten damit vom menschlichen Bewusstsein zu keinem gegenwärtigen Zeitpunkt erfasst werden, da sie von einer Intelligenz bestimmt würden, die der menschlichen fortwährend überlegen sein würde.

Etliche Befürworter aus den Reihen des Trans- und Posthumanismus sehnen die technologische Singularität herbei. Sie vertreten die Ansicht, dies sei genau das Ziel, auf das die Evolution zwangsläufig hinauslaufen werde. Letztlich erhoffen sie die Erschaffung übermenschlicher Wesen, die eine Antwort auf den Sinn des Lebens liefern oder das Universum einfach nur in einen lebenswerteren Ort verwandeln. Eine Gefahr sehen sie in dieser höheren Intelligenz nicht, denn gerade weil sie höher entwickelt sei, verfüge sie über ein dem Menschen überlegenes, friedfertiges ethisches Bewusstsein.

Kritiker betonen stets, das Eintreten einer technologischen Singularität müsse verhindert werden. Intelligenz habe mit Friedfertigkeit nichts zu tun und die entstehende Superintelligenz könne die Menschheit mühelos ausrotten. Sie sehen bereits im Streben nach einer technologischen Singularität einen logischen Fehler, denn Sinn und Zweck von Technologie sei es gerade, den Menschen das Leben leichter zu machen; für sich selbst denkende Technologie verstoße gegen diese Definition und sei daher prinzipiell nicht erstrebenswert.

Kritische Beurteilung[Bearbeiten]

Die Theorie der technologischen Singularität wird von vielen verschiedenen Seiten kritisiert. Ein Kritikpunkt sind fehlerhafte Datenauslegung und damit mangelnde Wissenschaftlichkeit. Das Mooresche Gesetz werde in die Zukunft extrapoliert, obwohl die bisherige Steigerung der Rechenleistung auf Verkleinerung der Computerschaltkreise beruhe, die physikalisch begrenzt sei. Zudem sind die Leistungsangaben lediglich theoretische Höchstwerte, die sich ebenfalls exponentiell von praktischen Werten entfernen, da die Speicherbandbreite viel langsamer wächst (Memory Wall).

Das Gehirn speichert Daten nicht separat von Schaltkreisen zu ihrer Verarbeitung. Zwar bilden Perzeptrons (einfache neuronale Netze) den menschlichen Wahrnehmungsprozess mit wenigen Nervenzellen nach, die Simulation eines kompletten Gehirns steht jedoch nicht in Aussicht. Die Funktionsweise des menschlichen Gehirns selbst ist noch nicht ausreichend verstanden; ohne dieses Wissen, so die Argumentation, sei jedoch an eine ausgereifte Computer-Gehirn-Schnittstelle nicht zu denken, von technischen Intelligenzerweiterungen oder der genetischen Zucht eines Genies ganz zu schweigen.

Der wohl wichtigste Kritikpunkt spricht jedoch die stagnierende Forschung im Gebiet starker künstlicher Intelligenz an. Trotz jahrzehntelanger Forschung zeichnete sich kein Durchbruch ab.[9] Das wirtschaftliche Interesse am Thema ist bereits in den 1970er Jahren erloschen und hat sich der vielversprechenderen schwachen Intelligenz – hochspezialisierten Problemlösern für Einzelaufgaben – zugewandt. Jordan Pollack dämpfte die Erwartungen raschen Fortschritts in dieser Richtung: „Having worked on AI for 30 years, I can say with certainty that Moore's law doesn't apply to software design.“[10]

Andere Kritik äußert Zweifel am Singularitätsbegriff. So habe es in der Geschichte der Menschheit viele Zeitpunkte gegeben, zu denen die Welt, in der wir heute leben, völlig unvorstellbar gewesen wäre. Begrenze man die Definition der Singularität auf „überschreitet die Grenze unseres Vorstellungsvermögens“, so sei die angesprochene Singularität nichts Einmaliges, sondern ein immer wieder stattfindendes Ereignis.

Schließlich gibt es Kritik an der Originalität der Theorie. Für den Science-Fiction-Schriftsteller Ken MacLeod etwa ist die Idee der technologischen Singularität nichts weiter als die technisierte Neuauflage des theologischen Begriffs der Lehre von den Hoffnungen auf Vollendung der Welt (der sog. Eschatologie).

Organisationen[Bearbeiten]

Das Singularity Institute for Artificial Intelligence (SIAI) ist eine gemeinnützige Bildungs- und Forschungsorganisation, die sich der Erforschung und Umsetzung von freundlicher künstlicher Intelligenz (Friendly AI) gewidmet hat. Gegründet wurde diese Institution von Eliezer Yudkowsky, Brian Atkins und Sabine Atkins.

Die Acceleration Studies Foundation (ASF) will die Aufmerksamkeit von Wirtschaft, Wissenschaft und Technik auf den sich beschleunigenden technologischen Fortschritt lenken. Dazu wird alljährlich die an der Stanford University stattfindende Konferenz Accelerating Change abgehalten. Zudem betreibt die Organisation Acceleration Watch[11] eine futurologische Informationswebseite, die aktuelle Entwicklungen im Licht des zunehmenden technologischen Wandels betrachtet.

Mitgliederzahl und Forschungsaktivitäten dieser Institute seien laut dem deutschen Soziologen Sascha Dickel „faktisch vernachlässigbar“.[12]

Prominente Vertreter[Bearbeiten]

Literatur[Bearbeiten]

Weblinks[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1. Vinge, 1993
  2. heise online: Ein Achtel Leben: Ray Kurzweil zum 60. Geburtstag, vom 12. Februar 2008
  3. Der Standard: Suche nach der neuen Welt, vom 10. Februar 2012
  4. Anthony Berglas: Artificial Intelligence Will Kill Our Grandchildren (Singularity). Draft 2012 (englisch).
  5. Vernor Vinge: Technological Singularity, Department of Mathematical Sciences, San Diego State University, 1993 (online)
  6. Website von Ray Kurzweil, Artikel The Law of Accelerating Returns (Stand: 28. Februar 2009)
  7. Michael Nielsen: Quantum Computing: What It Is, What It Is Not, What We Have Yet to Learn. Vortrag auf dem Singularity Summit, 5. November 2009, ab 29:11.
  8. MUSfalter: Mikrochip versus Gehirn – ein Blick in die Zukunft (Ausgabe: August/September/Oktober 2011), als PDF-Datei
  9. Peter Kassan: A.I. Gone Awry: The Futile Quest for Artificial Intelligence. Skeptic.com, Vol. 12, 2006.
  10. Jordan B. Pollack: Seven Questions for the Age of Robots. Yale Bioethics Seminar, Januar 2004.
  11. Acceleration Watch (englisch) – Webseite zum Thema Zukunftsforschung
  12. Sascha Dickel: Entgrenzung der Machbarkeit? Biopolitiosche Utopien des Enhancements. S. 75–84 in: Peter Böhlemann (Hrsg): Der machbare Mensch? Lit, Berlin 2010, ISBN 978-3-643-10426-7, eingeschränkte Vorschau in der Google-Buchsuche