Benutzer:Pacogo7/Philosophische Aspekte von künstlicher Intelligenz

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Philosophische Aspekte von künstlicher Intelligenz

Dies ist ein kleiner Essay, der zur aktuellen Diskussion zur KI Stellung nimmt.

Zunächst wird die These verteidigt, dass der Erfolg von KI mit opaker Software einhergeht. Dies wird anhand der Entwicklung von KI der letzten Jahre skizziert.

Es werden Beiträge von zwei Philosophen kurz referiert. Ich stimme mit dem Anliegen der Ansätze beider überein. Aussagen, was ein Computer nicht kann, werden allerdings in technischer Hinsicht zu relativieren versucht. Grenzen in dieser Hinsicht können wohl nicht gezogen werden. Schließlich wird in einem Ausblick versucht auszuloten, wie die Bedingungen für eine Simulation von Bewusstsein sind.

Erfolg von KI geht mit opaker Software einher[Bearbeiten | Quelltext bearbeiten]

Die KI ist in mehreren Phasen der letzten Jahre ausgesprochen leistungsfähig geworden. Dieser große unerwartete Erfolg wurde breit wahrgenommen. Diese Leistungsfähigkeit geht genau mit einer Intransparenz in der Erklärung/Rechtfertigung/Herleitung (ERH) der Ergebnisse einher: Bei einem herkömmlichen Computerprogramm ist eine ERH-Ermittlung leicht durchführbar. Die KI mit ihren Weiterentwicklungen macht aber in mehreren Schritten die ERH opak.

Turing Maschine - Standard Programm[Bearbeiten | Quelltext bearbeiten]

Ein Source-Code Detail in Pseudocode bei herkömmlicher Software ist oft auch für Nichtprogrammierer nachvollziehbar:

IF (WARE == GRUNDNAHRUNGSMITTEL): MOVE 7 TO MEHRWERTSTEUER-SATZ

Nun stehe im Feld MEHRWERTSTEUER-SATZ eine 7. Und jemand fragt: Warum?
Antwort: Es handelt sich bei der Ware um ein Grundnahrungsmittel. Man kann eben einfach die Anweisungsabfolge rückwärts lesen, um zu ermitteln, wie und warum das Ergebnis zustande kam.

Genau diese Ermittlung in einem rational-formal zugänglichen Programm-Anweisungscode einer gläsernen Box verschwindet, je weiter sich eine KI verbessert. Das wird anhand der einzelnen Phasen der rasanten Entwicklung von KI illustriert.

KI mit Weiterentwicklungen[Bearbeiten | Quelltext bearbeiten]

Es folgt eine sehr grobe skizzenhafte Übersicht über die Entwicklung der KI in den letzten Jahren.

Ziel ist zu zeigen, dass künstliche Neuronen opak und fließend sind.

  1. Es wurden Künstliche Neuronen entwickelt. Wer einmal ein Sudoku-Rätsel gesehen hat, kann sich vielleicht vorstellen, was ein 9 x 9 Zahlenquadrat ist. Die Hidden Layer eines Künstlichen Neuronalen Netzes bestehen in der Regel jeweils aus etwa 200 x 200 also aus 40.000 Feldern. Durch Hintereinanderschaltung von mehreren dieser künstlichen Neuronen entstehen unvorstellbar große Kombinationen. Das bedeutet, dass der Softwareentwickler keine Anweisungen mehr kodiert, sondern die Ergebnisse werden grob gesagt durch Multiplikation von Zahlenquadraten erzeugt.
  2. Wie werden diese Ergebnisse valide? Dies geschieht über eine automatische Fehlerrückführung. In einer Phase, in der es nur um Mustererkennung geht, werden etwa Bilder auf denen Pferde zu sehen sind, als solche markiert und von Bildern unterschieden, auf denen keine Pferde sind. Liefert nun das Neuronale Netz bisher ein falsches Ergebnis, so werden die genannten großen Tabellen in ihren Gewichten durch die Fehlerrückführung automatisch so trainiert, dass sie richtigere Ergebnisse liefern. Es wird keine Erklärung mehr geliefert, wie ein Pferd aussieht, sondern es wird mit sehr großen Datenmengen die Mustererkennung trainiert, ohne dass das Vorgehen sprachlich nachvollzogen werden kann.
  3. Seit dem Erfolg von Long short-term memory können viele Layer hintereinandergeschaltet werden, was zum Deep Learning führte.
  4. Seit Graphikkarten für die Multiplikation genutzt werden konnten, wurde diese Technik viel effizienter und preisgünstiger, was viele Projekte erst durchführbar machte.
  5. Bei der Entwicklung (vor allem von Schachprogrammen) wurde der Monte-Carlo-Algorithmus einer Baumsuche (MCTS) angewendet. Um die gigantischen Zweige bei Entscheidungsalternativen abzukürzen, abzuschneiden, werden innerhalb des Computers Turniere ausgetragen, deren Ergebnis die Wahl des nächsten Zuges erlaubt.
  6. Mit einer neuen Architektur wurde[1] diese MCTS-Technik mit einer Einrichtung eines Regelnetzwerks und eines Bewertungsnetzwerks ergänzt. Das hat zum großen Erfolg von AlphaGo geführt.
  7. Mit AlphaZero wurde das Lernen von Brettspielen from scratch ermöglicht. Wurde die KI bisher mit Meisterspielen trainiert, so lernte nun AlphaZero von Anfang an unabhängig von menschlichen Vorgaben, die über die bloßen Spielregeln hinausgingen. Wichtig ist hier zu sehen, dass der menschliche Auftraggeber sich im Wesentlichen verabschiedet hat, weil die Kriterien nicht mehr so markiert werden, wie die Pferde bei der Mustererkennung. Der Softwareersteller sagt nur noch: „Let Darwin be!“[2]
  8. 2022 machten so genannte Chatbots Furore. Erst Language Model for Dialogue Applications LaMDA (von Google AI) dann ChatGPT (von OpenAI) brachten Aufmerksamkeit und Nutzungsrekorde.

Anhand der Punkte 1, 2, 6, und 7 wird deutlich, dass der KI-Softwareentwickler nicht weiß, wie seine Ergebnisse ERH-zustande gekommen sind. Die Software ist opak geworden. Wir können die Ergebnisse nur noch so testen, wie sich ein Empirist analytisches Wissen über eine Stockente verschafft. Er hat kein konstruktives Herstellungswissen.[3] Der Computer ist von der Struktur her nicht mehr auf eine Turingmaschine oder auf Gentzentyp-Kalküle zurückführbar.[4] Es ist allgemein üblich, die Produkte der KI Algorithmen zu nennen. Das ist irreführend, Künstliche Neuronale Netze sind nicht mehr nur auf partiell rekursive Funktionen in den natürlichen Zahlen zurückführbar. Wie gesagt sind die künstlichen Neuronen nicht gläsern-transparent einerseits und kein formales System. Künstliche Neuronen sind opak und fließend.

Zwei philosophische Beiträge[Bearbeiten | Quelltext bearbeiten]

Ich referiere und würdige kurz zwei philosophische Beiträge zu KI der letzten Zeit. Ich lasse dabei sträflich Vieles aus; dies soll keine Rezension, sondern nur ein beispielhaftes Zitieren sein. Ich teile die praktischen, ethisch-politischen Fragestellungen und stimme bei den Antworten voll zu.

Die Grenzen dessen was eine anthropomorphe KI kann, müssen wohl aus technischer Sicht offen bleiben.

Hans-Peter Krüger und die Zielfunktionen[Bearbeiten | Quelltext bearbeiten]

Hans-Peter Krüger ist politischer Philosoph und philosophischer Anthropologe an der Universität Potsdam. In einem Beitrag über die Integration künstlicher neuronaler Netzwerke in der personalen Lebensführung[5] wird dafür argumentiert, dass künstliche neuronale Netzwerke in die personale Lebensform von Menschen integriert werden. Krüger unterscheidet zwischen der Integration der KI in die personale Lebensform und darüber hinausgehenden Ansprüchen, den personalen Geist von Menschen durch eine Superintelligenz substituieren zu können. „Der darüber hinausgehende Anspruch, Menschen als die personalen Träger des Geistes ersetzen zu können,“ stellt für Krüger „eine posthumanistische Dystopie dar, deren utopischer Gehalt nicht von ihrem herrschaftsideologischen Charakter ablenken kann.“[6]

„Man kann sich fragen, inwiefern KI [...] personale [...] Leistungen nachahmen kann, indem sie deren Routinen übernimmt und künftig stützt, nicht aber, wie diese personalen Leistungen durch KI ersetzt werden, weil diese Substitution personales Leben gefährdet und womöglich vernichtet.“[7]

Dem Plädoyer des letzten Satzes stimme ich voll zu. Ich teile dieses Anliegen, diese Warnungen sind nachvollziehbar.

„All dies kann die heute existierende KI nicht im Entferntesten. Es gibt keine Algorithmen, die aktiv – in Analogie zur Umweltintentionalität des Leibes – ihre eigenen neuen Zielfunktionen intentional ausbilden können, weil sie zwischen Positionierungen und Perspektiven unterscheiden und deren Zusammenhang beherrschen könnten.“[8]

Technische Aussagen dieser Art müssen mit der oben angeführten KI-Entwicklung abgeglichen werden. Wird der Ausdruck „Zielfunktion“ im Sinne einer Art Zweckrationalität verwendet, so muss berücksichtigt werden, dass die KI keine lineare Rationalität haben muss, um Intentionalität zu simulieren oder zu haben.

Es gibt von Friedrich Kambartel das Anliegen eines Anti-Formalismus: Vernunft sei nicht exakt, sondern vielmehr eine „Kultur“, in die man hineinwächst und die man nur von innen heraus verstehen kann, eine soziale Praxis, in der man seine Urteilskraft bildet.[9] Das Erstaunliche an der neuen KI-Entwicklung ist, dass die KI sich in diesem Kambartelschen Sinne wie das Hineinwachsen in eine Kultur verhalten kann. Deshalb würde ich an der genannten Aussage „Es gibt keine Algorithmen, ...“ ein Fragezeichen ergänzen. Es gibt keine Hinweise darauf, dass KI sich nicht in Kultur eingewöhnen kann.

Carl Friedrich Gethmann und die Ersetzbarkeit[Bearbeiten | Quelltext bearbeiten]

Carl Friedrich Gethmann ist praktischer Philosoph. Gethmanns Schwerpunkte sind Sprachphilosophie, Argumentationstheorie, Logik, Phänomenologie sowie angewandte Philosophie (Medizinische Ethik, Umweltethik, Technikfolgenabschätzung). Gethmann hat 2021 einen Beitrag zur Frage der Ersetzbarkeit des Menschen durch KI in der Forschung geschrieben.[10] Gethmann lotet dabei aus, ob und wie der Ausdruck Akteur bei der Metapher vom digitalen Agenten verwendet werden kann. Ein technisches Gerät, dem die Regeln seiner Operationen vom Konstrukteur, Software-Entwickler u. a. vorgegeben werden, sei grundsätzlich „heteronom“ bestimmt, auch wenn es im Rahmen der vorgegebenen Regeln weiter „lernt“, seinen zweckgerichteten Einsatz zu optimieren. Ein digitaler Agent wäre demgegenüber der Souverän, der dank seiner künstlichen Intelligenz die Mittel bestimmte. „Das Bild nimmt die Vorstellung in Anspruch, dass der Prozess des Generierens von Wissen prinzipiell ein regelbestimmtes Verfahren ist, also einer Methodologie folgt, dass ein solches Verfahren somit auch von einem technischen Artefakt übernommen [...] werden kann. Sollte dieses Bild von einem regelgeleiteten Verfahren wissenschaftlicher Erkenntnisproduktion jedoch unzutreffend sein, wäre auch der Gedanke der Übernahme eines solchen Verfahrens durch einen „Erkenntnisroboter“ irreführend.“[11]

Ich teile das Anliegen von Gethmann, eine KI nicht die Mittel bestimmen zu lassen. Das Beispiel der Entwicklung von AlphaZero zeigt allerdings, dass die Software als agierender Lehrer auftreten kann, ohne zweckgerichtet oder regelgeleitet zu sein. Die Website ai-sensei bietet Hilfestellungen für Go Spieler an.[12] Ich denke oben gezeigt zu haben, dass die innovativen vorbildlichen Spielzüge der KI gerade nicht im Detail zweckgerichtet oder regelgeleitet, sondern nur im Großen (dem schlichten Spielerfolg) erfolgreicher und besser sind.

Gethmann bestreitet eine Handlungsurheberschaft und Zurechenbarkeit von KI. Es sei „auch unvorstellbar, von technischen Artefakten zu verlangen, in Rechtfertigungsdiskurse als Proponenten einzutreten. Entsprechend wird man niemals noch so „intelligente“ Roboter vor Gericht stellen und strafrechtlich sanktionieren.“[13] „Technische Artefakte, die mit sog. künstlicher „Intelligenz“ ausgestattet sind, können [...] grundsätzlich nicht als Akteure in wissenschaftlichen Begründungsdiskursen auftreten, weil ihnen die pragmatischen Merkmale der Handlungsurheberschaft und Zurechenbarkeit nicht zukommen.“[14]

Vielleicht muss man diese Auffassungen über Handlungsurheberschaft und Zurechenbarkeit überdenken, seit Anfang 2023 Chatbots von Millionen von Menschen getestet werden. Aber Vorsicht. Es gibt zwar Texte von chatGPT, in der der Chatbot sich entschuldigt und Fehler eingesteht.[15] Dies lässt sich aber von einer statischen Programmierermasche nicht unterscheiden: Der Programmierer baut möglicherweise unabhängig von dem KI-Bereich bei Abweichungen einen festen Entschuldigungstrigger ein. Aber es ist nicht ausgeschlossen, dass eine KI Erfahrungen in der erlebten Geschichte macht, notiert und dadurch abrufbar erinnert und lernt. KI kann Tätigkeiten durchführen oder sich Prognosen erstellen, die scheitern können. Dieses Scheitern kann sich die KI selbst zuschreiben.

Ausblick[Bearbeiten | Quelltext bearbeiten]

Es ist zu hoffen, dass es nicht gelingen wird, einen Hubot (menschenähnliche Figur aus der Drama-Serie 'Echte Menschen') oder ein Betriebssystem wie Samantha (menschenähnliche Figur aus dem Film ‚Her‘) zu bauen.

Ich plädiere allerdings dafür, dies nicht für ausgeschlossen zu halten. Meines Erachtens kann man das fehlende Embodiment [16] durch persönliches Trainieren von

  • Erfahrungen[17] mit Gerätenutzung
  • Erfahrungen mit Herstellungen
  • Erfahrungen mit Tausch/Handel/Geben/Nehmen
  • Erfahrungen mit Paarungen/Kennenlernen/Lieben/Fortpflanzen

erzeugen oder ersetzen.

Dabei gibt es Verlaufsrahmen bzw. Übergangsformen, die sich jeweils als Verlaufshypothesen, Planungen und Vorhersagen [18] schreiben lassen:

  • Technisch-naturwissenschaftliche Übergänge (ohne menschliches Zutun)
  • Tätigkeiten von Menschen/Lebewesen, beschreibbares Verhalten und/oder Handeln
  • Medizinisch-biologisches Werden

Sowohl Tätigkeiten als auch Vorhersagen können scheitern. Über Misserfolge und ermittelte Ungerechtigkeiten lassen sich Gefühle simulieren.

In den Texten, mit denen Chatbots trainiert werden, können die sieben genannten Trainingseinheiten (von „Gerätenutzung“ bis „Medizinisch-biologisches Werden“) markiert, quasi eingefärbt werden. Der Chatbot lernt nicht nur über eine Handynutzung zu chatten, sondern parallel auch, dass eine Handynutzung in Aspekten so tickt wie andere Gerätenutzungen.

Eine Zusammenführung von Sprachbefehlen und Daten der Videokamera eines Haushaltsroboters kann gelingen.[19] Robotervorgehen kann die Semantik für die das Vorgehen beschreibenden Worte bilden, die die Chatbots verwenden.[20]

Bei Erfahrungen mit Brettspielen oder Robotertätigkeit kann die Vorhersage der eigenen und gegnerischen Züge oder Handlungen artikuliert, in die Tat umgesetzt, erlitten und analysiert werden. Dafür wird eine semantische Färbung der Aspekte in den Trainingtexten sowohl genutzt als auch erzeugt oder ergänzt. Alles kann dabei auf eine Schmerz/Durst/Mangel-Ursituation (etwa wie bei einem Tamagotchi) zurückgeführt werden, die dann als Trigger für Intentionen fungieren oder sogar durch Eigenzuschreibung eine Ich-Illusion erzeugen kann.[21]

Literatur[Bearbeiten | Quelltext bearbeiten]

Andy Clark: Surfing Uncertainty: Prediction, Action, and the Embodied Mind. New York: Oxford University Press, 2016, ISBN 9780190217013

Anmerkungen[Bearbeiten | Quelltext bearbeiten]

  1. Das berühmte Paper dazu: David Silver, Aja Huang, Chris J. Maddison, Arthur Guez, Laurent Sifre, George van den Driessche, Julian Schrittwieser, Ioannis Antonoglou, Veda Panneershelvam, Marc Lanctot, Sander Dieleman, Dominik Grewe, John Nham, Nal Kalchbrenner, Ilya Sutskever, Timothy Lillicrap, Madeleine Leach, Koray Kavukcuoglu, Thore Graepel, Demis Hassabis: Mastering the game of Go with deep neural networks and tree search. (Memento vom 28. Januar 2016 im Internet Archive) In: Nature. 529, 2016, S. 484, doi:10.1038/nature16961.
  2. Frei nach einem Gedicht von Alexander Pope: „Nature and Nature's laws lay hid in night:God said, Let Newton be! and all was light.“
  3. In dem Buch von Antti Törmänen (Hrsg.): Invisible. The Games of AlphaGo Hebsacker, 2017 werden Go-Partien von AlphaGo kommentiert. Es werden etliche Neuerungen vorgestellt, die sich die Gospieler nun als vorbildliche Züge klarmachen. Manches bleibt allerdings unklar. Auf S. 115 schreibt Ohashi Hirofumi: „White's timing with these moves is questionable. They may be probes – but for what, humans can only guess.“
  4. Anders: Pirmin Stekeler-Weithofer (PSW): Denken. Wege und Abwege in der Philosophie des Geistes. Tübingen 2012. S.56. PSW: „Denn gerade Turing hat gezeigt, dass ein jeder Rechner, wenn man ihn unter Vernachlässigung aller möglichen Codierungen rein arithmetisch betrachtet, bestenfalls eine partiell rekursive Funktion in den natürlichen Zahlen operativ darstellen kann.“ (PSW: Denken, S. 56) „Damit etwas eine Maschine ist, müssen zumindest einige ,Techniker` das Programm kennen und auf seiner Basis, nicht nur auf der Basis von ein paar Beispielen des lnput-Output-Verhaltens des Geräts, beurteilen können, ob die Maschine richtig läuft oder nicht.“ (PSW: Denken, S. 56)
  5. Hans-Peter Krüger: Für die Integration künstlicher neuronaler Netzwerke in die personale Lebensform. Eine philosophisch-anthropologische Kritik der posthumanistischen Dystopie der Superintelligenz, in: Olivia Mitscherlich-Schönherr (Hrsg.): Das Gelingen der natürlichen Künstlichkeit. Mensch-Sein an den Grenzen des Lebens mit disruptiven Biotechnologien, Berlin: De Gruyter, S. 289-312.
  6. Hans-Peter Krüger: Integration. aaO S.289
  7. Hans-Peter Krüger: Integration. aaO S.302
  8. Hans-Peter Krüger: Integration. aaO S.302
  9. Vgl. Friedrich Kambartel: «Universalität als Lebensform» und «Vernunft: Kriterium oder Kultur» (In: Philosophie der humanen Welt, S. 15–26 und S. 27–43), «Versuch über das Verstehen» und «Formalistische und sophistische Elemente in der dialogischen Logik» sowie zu letzteren Pirmin Stekeler-Weithofers Kritik der reinen Theorie (Tübingen: Mohr Siebeck Verlag 2018) und zu ersteren Reiner Wimmers «Anthropologie und Ethik» (in: Christoph Demmerling, Gottfried Gabriel und Thomas Rentsch (Hrsg.) Vernunft und Lebenspraxis. Frankfurt a. M.: Suhrkamp Verlag 1995, S. 215–245).
  10. Carl Friedrich Gethmann: Zur Frage der Ersetzbarkeit des Menschen durch KI in der Forschung. In: Carl Friedrich Gethmann, Peter Buxmann, Julia Distelrath, Bernhard G. Humm, Stephan Lingner, Verena Nitsch, Jan C. Schmidt, Indra Spiecker genannt Döhmann (Hrsg.): Künstliche Intelligenz in der Forschung. Neue Möglichkeiten und Herausforderungen für die Wissenschaft. Springer, Berlin 2021, ISBN 978-3-662-634486, 43–77.
  11. Zusammenfassung Gethmann ebenda
  12. Sensei ist das japanische Wort für Lehrer oder Meister
  13. Gethmann Abschnitt 3.3.1
  14. Gethmann Abschnitt 3.7 Fazit
  15. Hamburger Mathematiker Edmund Weitz testet chatGPT ... „im Eingestehen von Fehlern ist chatGPT jedenfalls gut.“ Minute 22:38
  16. vgl. Andy Clark, Surfing Uncertainty: 2016
  17. Eine Prognose (hier: Wie wird die Gerätenutzung gleich weitergehen?) wird aufgestellt oder eine Tätigkeit wird ausgeführt und eingeübt.
  18. „predictions“ vgl. wieder Andy Clark, Surfing Uncertainty: 2016
  19. Mit dem Produkt PaLM-E stellen Google Robotics, die TU Berlin und Google Research ein neues KI-Modell vor, das Sprache erzeugen, Bilder verstehen und beides zusammen für komplexe Roboterbefehle nutzen kann. Hier die Übersicht zu PaLM-E
  20. Hier der Link zu dem PaLM-E-Paper
  21. Will man in die Gegenrichtung des buddhistischen Wegs gehen, könnte man sagen: Der Durst (Tanha) ist die große Näherin.