Geschichte der künstlichen Intelligenz

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Am 13. Juli 1956 begann am Dartmouth College in Hanover (New Hampshire) eine 6-wöchige Konferenz unter dem Namen Dartmouth Summer Research Project on Artificial Intelligence; sie wurde von John McCarthy organisiert und neben McCarthy selbst nahmen daran unter anderen Marvin Minsky, Nathan Rochester und Claude Shannon teil.

Genau genommen handelte es sich um einen Workshop zu einem Forschungsprojekt, für das McCarthy 1955 die Fördermittel bei der Rockefeller Foundation eingeworben hatte.[1] In seinem Antrag erschien erstmals der Begriff „artificial intelligence“ („künstliche Intelligenz“).

Aus diesem Grund gilt diese – später so genannte – Dartmouth Conference seither als die Gründungsveranstaltung der Künstlichen Intelligenz als einem akademischen Fachgebiet.

Vorgeschichte[Bearbeiten | Quelltext bearbeiten]

Die Idee, dass sich die menschliche Intelligenz oder auch ganz allgemein die Vorgänge des menschlichen Denkens möglicherweise automatisieren oder mechanisieren lassen, dass der Mensch eine Maschine konstruieren und bauen könnte, die auf irgendeine Art und Weise intelligentes Verhalten zeigt, ist allerdings schon sehr viel älter. Als früheste Quelle wird zumeist auf Julien Offray de La Mettrie und sein 1748 veröffentlichtes Werk L’Homme Machine verwiesen. Auch die Idee des Laplaceschen Dämons, benannt nach dem französischen Mathematiker, Physiker und Astronomen Pierre-Simon Laplace kann insofern zu den theoretischen Vorläufern der Künstlichen Intelligenz gezählt werden, als diesem Entwurf die Modellvorstellung zugrunde liegt, dass das gesamte Universum nach den Regeln einer mechanischen Maschine – gewissermaßen wie ein Uhrwerk – abläuft, und diese Vorstellung dann natürlich auch den Menschen und seinen Geist, seine Intelligenz, mit einschließt.

Historische Automaten und Roboter[Bearbeiten | Quelltext bearbeiten]

In der Geschichte finden sich an etlichen Stellen Berichte von mechanischen Automaten für bestimmte Tätigkeiten, die in einem mehr oder weniger menschenähnlichen Gehäuse eingebaut waren und damit – bis zu einem gewissen Grad – die Illusion eines künstlichen Menschen vermitteln sollten. Teilweise handelte es sich hierbei auch um Jahrmarkts-Attraktionen bis hin zu Figuren wie C-3PO aus Star Wars.

Homunculi, Golem und andere künstliche Menschen[Bearbeiten | Quelltext bearbeiten]

Neben diesen Automaten, die zumindest von ihren Konstrukteuren und Erbauern in aller Regel tatsächlich als Maschinen mit begrenzten mechanischen Fähigkeiten verstanden wurden, gab es auch theoretische oder literarische Entwürfe von künstlich erzeugten Lebewesen, die in ihren Fähigkeiten und auch in ihrem Aussehen dem Menschen ähnlich sein sollten. Eine allgemeine Vorstellung von einem Homunculus wurde schon in der Antike beschrieben, ein Plan für die angebliche Herstellung eines Homunkulus findet sich in der Schrift De natura rerum (1538), die allgemein Paracelsus zugeschrieben wird. Weitere Beispiele sind hier die jüdische Legende vom Golem in ihren verschiedenen Varianten oder Mary Shelleys Roman Frankenstein.

Künstliche Intelligenz in der Literatur[Bearbeiten | Quelltext bearbeiten]

Der polnische Philosoph und Science-Fiction-Autor Stanisław Lem veranschaulichte diese Vorstellung in zahlreichen belletristischen Werken.

Theoretische Grundlagen im frühen 20. Jahrhundert[Bearbeiten | Quelltext bearbeiten]

Basierend auf den Arbeiten von Alan Turing, unter anderem auf dem Aufsatz Computing machinery and intelligence, formulierten Allen Newell (1927–1992) und Herbert A. Simon (1916–2001) von der Carnegie Mellon University in Pittsburgh die Physical Symbol System Hypothesis.[2] Ihr zufolge ist Denken Informationsverarbeitung, und Informationsverarbeitung ein Rechenvorgang, eine Manipulation von Symbolen. Auf das Gehirn als solches komme es beim Denken nicht an: „Intelligence is mind implemented by any patternable kind of matter.“ Diese Auffassung, dass Intelligenz unabhängig von der Trägersubstanz sei, wird von den Vertretern der starken KI-Forschung geteilt. Für Marvin Minsky (1927–2016) vom Massachusetts Institute of Technology (MIT), einem der Pioniere der KI, ist „das Ziel der KI die Überwindung des Todes“. Der Roboterspezialist Hans Moravec (* 1948) von der Carnegie Mellon University beschreibt in seinem Buch Mind Children (Kinder des Geistes) das Szenario der Evolution des postbiologischen Lebens: Ein Roboter überträgt das im menschlichen Gehirn gespeicherte Wissen in einen Computer, sodass die Biomasse des Gehirns überflüssig wird und ein posthumanes Zeitalter beginnt, in dem das gespeicherte Wissen beliebig lange zugreifbar bleibt.

Die philosophische Diskussion: Ist Künstliche Intelligenz überhaupt möglich[Bearbeiten | Quelltext bearbeiten]

Seit den Anfängen der KI als akademischer Disziplin ist ein heftiger Streit im Gange, ob es so etwas wie künstliche Intelligenz überhaupt geben kann. Dabei geht es naturgemäß weniger um diejenigen Teilgebiete, die mit dem Begriff der schwachen KI umrissen werden, sondern in erster Linie um die starke KI und um deren prinzipielle Existenz, deren Existenzberechtigung und deren Existenzmöglichkeit, d. h. um die Frage, ob künstliche Systeme überhaupt denkbar sind, die dem Menschen und seiner Intelligenz wirklich gleich oder zumindest in irgendeinem noch näher zu definierenden Sinne ähnlich sind.

So widmet Hubert L. Dreyfus ein ganzes Buch (1972) dem Thema der "Grenzen künstlicher Intelligenz"[3], und zusammen mit (seinem Bruder) Stuart E. Dreyfus beschreibt er die Grenzen der Denkmaschine (1986)[4].

Auf der anderen Seite verweist Karl Popper (1977) auf eine These von Alan Turing, der einmal gesagt habe,

„Gib genau an, worin deiner Meinung nach ein Mensch einem Computer überlegen sein soll, und ich werde einen Computer bauen der deinen Glauben widerlegt.“[5],

relativiert diese Aussage aber gleich wieder, indem er empfiehlt:

„Wir sollten Turings Herausforderung nicht annehmen; denn jede hinreichend genaue Bestimmung könnte prinzipiell zur Programmierung eines Computers verwendet werden.“

Und im Übrigen verweist er darauf, dass schon für die menschliche Intelligenz bisher niemand eine von allen einschlägigen Fachleuten akzeptierte Definition der Intelligenz hat formulieren können, und dass demzufolge auch kein allgemein akzeptiertes Verfahren existiert, mit dem man das Vorhandensein bzw. den Ausprägungsgrad von „Intelligenz“ beim Menschen – und dann möglicherweise auch bei einem künstlichen System – würde objektiv überprüfen bzw. messen können.

Die Diskussion, ob es so etwas wie eine künstliche Intelligenz, die der menschlichen Intelligenz ebenbürtig ist, oder sogar überlegen, überhaupt geben kann, ist allerdings durch eine grundlegende Asymmetrie gekennzeichnet:

  • Autoren wie die Brüder Dreyfus vertreten die These, dass es künstliche Intelligenz dem strengen Sinne der starken KI nicht geben kann, d. h. sie vertreten im formallogischen Sinne eine Allaussage (mit negativem Vorzeichen) und die Argumente und Überlegungen, die sie für diese ihre These anführen, können an vielen Stellen angegriffen, bestritten oder möglicherweise sogar widerlegt werden.
  • Alan Turing behauptet demgegenüber lediglich, dass – unter bestimmten Bedingungen bzw. Voraussetzungen – etwas möglich sei und überlässt es anderen, diese Voraussetzungen zunächst erst einmal zu erfüllen. Solange dies aber noch nicht geschehen ist, kann Turings Behauptung nicht überprüft, demzufolge aber auch nicht falsifiziert werden, und ist insofern streng genommen nach dem von Popper formulierten Kriterium für Wissenschaftlichkeit keine wissenschaftliche Aussage.

Für eine Entscheidung, ob ein technisches System über eine dem Menschen ähnliche Intelligenz verfügt, wird oft auf einen Vorschlag von Alan Turing verwiesen, der unter dem Namen Turing-Test bekannt geworden ist. Allan Turing selbst hat allerdings nur die allgemeine Idee skizziert, die einem solchen Test zugrunde liegen könnte: wenn ein Mensch in einer Interaktion mit zwei „Partnern“, von denen einer ein anderer Mensch und der andere eben ein künstliches, technisches System ist, nicht (mehr) herausfinden bzw. unterscheiden könne, welcher der Partner der Mensch und welcher der Computer ist, so könnte man dem technischen System nicht mehr die Eigenschaft absprechen, ebenfalls intelligent zu sein. (Genauere Einzelheiten hierzu ließ Turing zunächst offen; im Übrigen ist natürlich klar, dass die Interaktion in einer solchen Testsituation so zu gestalten ist, z. B. in Form eines Telefongesprächs oder eines schriftlichen Frage-und-Antwort-Spiels, dass keine sachfremden Informationen die Beurteilung verfälschen können.)

Allerdings gab es, als Alan Turing diesen Vorschlag machte, ca. 1950, das Fachgebiet der künstlichen Intelligenz noch gar nicht, und dementsprechend auch noch nicht die Unterscheidung von starker und schwacher KI und schon gar nicht den Streit, ob es eine starke KI im engeren Sinne überhaupt geben könne. Natürlich gab es im späteren Verlauf verschiedene Versuche, Turings Idee zu konkretisieren und praktisch durchzuführen, die aber alle wegen Mängeln in der Konzeptualisierung – und auch in der praktischen Durchführung – kritisiert bzw. nicht anerkannt wurden.

Gleichzeitig nimmt die Rechenleistung von Computern inzwischen seit über 50 Jahren mit exponentieller Geschwindigkeit zu: Gordon Moore hatte im Jahr 1965 in einem Aufsatz[6] eine Verdoppelung etwa im 2-Jahres-Rhythmus vorhergesagt – zunächst nur bezogen auf die Packungsdichte der Bauelemente auf Computer-Chips und zunächst nur für die Zeit bis 1975. Unter dem Namen Mooresches Gesetz wurde aus dieser Prognose eine grobe Regel dafür, wie sich die Leistungsfähigkeit von Computersystemen entwickelt; im Jahre 2015 konnte dieses Gesetz seine 50-jährige Geltungsdauer feiern (es gab in dieser Zeit also 25 mal eine Verdopplung, also eine Leistungssteigerung um den Faktor ).

Vor diesem Hintergrund und weil das menschliche Gehirn in seiner Leistungsfähigkeit nahezu konstant ist, hat man schon jetzt für den Zeitpunkt, an dem eines Tages die Leistungsfähigkeit von Computern die des menschlichen Gehirns – und damit die künstliche die menschliche Intelligenz – voraussichtlich übertreffen wird, den Begriff der technologischen Singularität geprägt. Tatsächlich übertreffen heutige, kostspielige Supercomputer die geschätzte Leistungsfähigkeit des menschlichen Gehirns schon deutlich. Auch handelsübliche und für Verbraucher erschwingliche Computer sind nicht mehr weit von dieser Leistungsgrenze entfernt (Stand 2017). Man simuliert dabei die neuronalen Netze im natürlichen Gehirn durch künstliche neuronale Netze mit Hilfe von Software im Computer. Die künstlichen Gehirne haben in vielen Funktionen Ähnlichkeit mit den natürlichen Gehirnen.

Die chinesischen Forscher Feng Liu, Yong Shi und Ying Liu haben im Sommer 2017 Intelligenz-Tests mit öffentlich und kostenlos zugänglichen schwachen KIs wie etwa Google KI oder Apples Siri und weiteren durchgeführt. Im Maximum erreichten diese KIs einen Wert von etwa 47, was etwa einem sechsjährigem Kind in der ersten Klasse entspricht. Ein Erwachsener kommt etwa im Durchschnitt auf 100. Bereits 2014 wurden ähnliche Tests durchgeführt bei denen die KIs noch im Maximum den Wert 27 erreichten.[7]

Forschungsrichtungen und Phasen der KI[Bearbeiten | Quelltext bearbeiten]

Die Anfangsphase der KI war geprägt durch eine fast grenzenlose Erwartungshaltung im Hinblick auf die Fähigkeit von Computern, „Aufgaben zu lösen, zu deren Lösung Intelligenz notwendig ist, wenn sie vom Menschen durchgeführt werden“[8]. Herbert Simon prognostizierte 1957 unter anderem, dass innerhalb der nächsten zehn Jahre ein Computer Schachweltmeister werden und einen wichtigen mathematischen Satz entdecken und beweisen würde. Diese Prognosen trafen nicht zu. Simon wiederholte die Vorhersage 1990, allerdings ohne Zeitangabe. Immerhin gelang es 1997 dem von IBM entwickelten System Deep Blue, den Schach-Weltmeister Garri Kasparov in sechs Partien zu schlagen. Im Jahr 2011 gewann das Computerprogramm Watson im Quiz Jeopardy! gegen die beiden bislang erfolgreichsten Spieler.

Newell und Simon entwickelten in den 1960er Jahren den General Problem Solver, ein Programm, das mit einfachen Methoden beliebige Probleme sollte lösen können. Nach fast zehnjähriger Entwicklungsdauer wurde das Projekt schließlich eingestellt. John McCarthy schlug 1958 vor, das gesamte menschliche Wissen in eine homogene, formale Darstellungsform, die Prädikatenlogik 1. Stufe, zu bringen.

Weizenbaum: ELIZA[Bearbeiten | Quelltext bearbeiten]

Ende der 1960er Jahre entwickelte Joseph Weizenbaum (1923–2008) vom MIT mit einem relativ simplen Verfahren das Programm ELIZA, in dem der Dialog eines Psychotherapeuten mit einem Patienten simuliert wird. Die Wirkung des Programms war überwältigend. Weizenbaum war selbst überrascht, dass man auf relativ einfache Weise Menschen die Illusion eines beseelten Partners vermitteln kann. „Wenn man das Programm missversteht, dann kann man es als Sensation betrachten“ sagte Weizenbaum später über ELIZA.[9] Auf einigen Gebieten erzielte die KI Erfolge, beispielsweise bei Strategiespielen wie Schach und Dame, bei mathematischer Symbolverarbeitung, bei der Simulation von Robotern, beim Beweisen von logischen und mathematischen Sätzen und schließlich bei Expertensystemen. In einem Expertensystem wird das regelbasierte Wissen eines bestimmten Fachgebiets formal repräsentiert. Das System wendet bei konkreten Fragestellungen diese Regeln auch in solchen Kombinationen an, die von menschlichen Experten nicht in Betracht gezogen werden. Die zu einer Problemlösung herangezogenen Regeln können angezeigt werden, d. h. das System kann sein Ergebnis „erklären“. Einzelne Wissenselemente können hinzugefügt, verändert oder gelöscht werden; moderne Expertensysteme verfügen dazu über komfortable Benutzerschnittstellen.

Expertensysteme[Bearbeiten | Quelltext bearbeiten]

Eines der bekanntesten Expertensysteme war das Anfang der 1970er Jahre von T. Shortliffe an der Stanford University entwickelten MYCIN. Es diente zur Unterstützung von Diagnose- und Therapieentscheidungen bei Blutinfektionskrankheiten und Meningitis. Ihm wurde durch eine Evaluation attestiert, dass seine Entscheidungen so gut sind wie die eines Experten in dem betreffenden Bereich und besser als die eines Nicht-Experten. Allerdings reagierte das System, als ihm Daten einer Cholera-Erkrankung – eine Darm- und keine Blutinfektionskrankheit – eingegeben wurden, mit Diagnose- und Therapievorschlägen für eine Blutinfektionskrankheit: MYCIN erkannte die Grenzen seiner Kompetenz nicht. Man nennt dies den Cliff-and-Plateau-Effekt. Er ist für Expertensysteme, also Computerprogramme, die der Diagnoseunterstützung dienen (Medical Decision-Support Systems) und dabei hochspezialisiert auf ein schmales Wissensgebiet sind, typisch. In den 1980er Jahren wurde der KI, parallel zu wesentlichen Fortschritten bei Hard- und Software, die Rolle einer Schlüsseltechnologie zugewiesen, insbesondere im Bereich der Expertensysteme. Man erhoffte sich vielfältige industrielle Anwendungen, erwartete auch eine Ablösung „eintöniger“ menschlicher Arbeit (und deren Kosten) durch KI-gesteuerte Systeme. Nachdem allerdings viele Prognosen nicht eingehalten werden konnten, reduzierten die Industrie und die Forschungsförderung ihr Engagement.

Maschinelles Lernen und neuronale Netze[Bearbeiten | Quelltext bearbeiten]

Expertensysteme und andere auf Wissensdatenbanken basierende Systeme hatten nur mäßigen Erfolg, da es sich als zu schwer herausstellte, das benötigte Wissen von Hand in formale Regeln zu überführen. Diese Schwäche wird durch maschinelles Lernen umgangen. Hierbei lernt das Computersystem selbstständig anhand der vorliegenden Daten und ist so auch in der Lage, verborgene Zusammenhänge zu erkennen, die ein Mensch nicht berücksichtigt hätte.[10] Klassische Verfahren lernen dabei eine Ausgabefunktion anhand vorher extrahierter Merkmale, die durch manuelle Programmierung aus den Eingabedaten extrahiert wurden. Hierbei zeigte sich jedoch ein ähnliches Problem wie bei den Expertensystemen, dass eine manuelle Auswahl nicht immer zu einem optimalen Ergebnis führt. Eine aktuell erfolgreiche Struktur für maschinelles Lernen sind künstliche neuronale Netze (KNNs). Sie basieren auf der Fähigkeiten, die erforderlichen Merkmale selbst anhand der Rohdaten zu lernen, beispielsweise direkt aus den Kamerabildern.[10]

Historisch gesehen wurden die ersten KNNs als lineare Modelle wie die McCulloch-Pitts-Zelle 1943 und das Adaline-Modell 1959 entwickelt. Man analysierte, ausgehend von der Neurophysiologie, die Informationsarchitektur des menschlichen und tierischen Gehirns. Zur Untersuchung dieser Verfahren hat sich die Neuroinformatik als wissenschaftliche Disziplin entwickelt. Schwächen bei der Modellierung selbst einfacher logischer Funktionen wie dem XOR durch diese linearen Modelle führten zunächst zu einer Ablehnung der KNNs und biologisch inspirierter Modelle im Allgemeinen.[10]

Dank der Entwicklung nichtlinearer mehrlagiger, faltender neuronaler Netze und der dafür nötigen Trainingsverfahren, aber auch durch die Verfügbarkeit der dafür benötigten leistungsstarken Hardware und großen Trainings-Datensätze (z.B. ImageNet) erzielten KNNs seit 2009 Erfolge in zahlreichen Mustererkennungs-Wettbewerben und dominierten gegenüber klassischen Verfahren mit händischer Auswahl der Merkmale. Die dafür verwendeten, mehrlagigen neuronalen Netze werden auch unter dem Schlagwort Deep Learning zusammengefasst.[10]

Des Weiteren werden KNNs auch als generative Modelle, das heißt zur Erzeugung echt wirkender Bilder, Videos oder Tonaufnahmen, eingesetzt, was insbesondere durch die Erfindung der Generative Adversarial Networks 2014 in immer besserer Qualität möglich wurde. Die Ergebnisse einer darauf aufbauenden Arbeit aus dem Jahre 2017, die imaginäre Bilder von Gesichtern erzeugt, wurden von Fachkreisen als „eindrucksvoll realistisch“ beschrieben.[11] Mit DeepFakes wurden die Ergebnisse ab 2017 auch einer breiten Öffentlichkeit bekannt. Dabei wurde insbesondere die Frage diskutiert, in wie weit man einem Foto- oder Videobeweis noch trauen kann, wenn es möglich wird, beliebig echt wirkende Bilder automatisiert zu erzeugen.

Spielpartner bei Brett- und Videospielen[Bearbeiten | Quelltext bearbeiten]

In der KI haben sich mittlerweile zahlreiche Subdisziplinen herausgebildet, etwa spezielle Sprachen und Konzepte zur Darstellung und Anwendung von Wissen, Modelle zu Fragen von Revidierbarkeit, Unsicherheit und Ungenauigkeit und maschinelle Lernverfahren. Die Fuzzylogik hat sich als weitere Form der schwachen KI etwa bei Maschinensteuerungen etabliert. Weitere erfolgreiche KI-Anwendungen liegen in den Bereichen natürlich-sprachlicher Schnittstellen, Sensorik, Kybernetik und Robotik.

Im August 2017 besiegte eine künstliche Intelligenz der Firma OpenAI bei einem mit 24 Millionen Dollar dotierten Dota2-Turnier einige der weltbesten Profispieler auf diesem Gebiet (u. a. Profispieler Danylo "Dendi" Ishutin). Dota2 gilt als eines der komplexesten Videospiele überhaupt, komplexer als Go oder Schach. Dota2 wurde allerdings hier im eins zu eins Modus gespielt und nicht im komplexeren Team-Modus. OpenAI erklärte, dass die KI nur vier Monate benötigte, um diese Spielstärke zu erreichen. Die KI wurde trainiert, indem diese immer wieder gegen sich selbst antrat. Die KI bekam das gleiche Sichtfeld wie der menschliche Spieler und durfte nur eine begrenzte Anzahl von Aktionen gleichzeitig ausführen. Ziel von OpenAI ist es nun, eine KI zu entwickeln, die die besten menschlichen Spieler auch im Team-Modus besiegen kann.[12]

Weblinks[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. “A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence” (McCarthy et al.:Förderantrag, August 1955, S. 1) (Memento des Originals vom 30. September 2008 im Internet Archive) i Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe den Link gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www-formal.stanford.edu
  2. Allen Newell, Herbert A. Simon: “Computer Science as Empirical Inquiry: Symbols and Search” in: Communications of the ACM. Vol. 19, No. 3, March, 1976, S. 113–126 Text
  3. Hubert L. Dreyfus: Die Grenzen künstlicher Intelligenz. Was Computer nicht können; Königstein: Athenäum, 1985 [engl.Original: What Computers Can't Do: The Limits of Artificial Intelligence. 1972]
  4. Dreyfus, Hubert L. und Stuart E. Dreyfus: Künstliche Intelligenz : Von den Grenzen der Denkmaschine und dem Wert der Intuition, Reinbek, Rowohlt rororo, 1986 (englisch Original: Mind Over Machine: The Power of Human Intuition and Expertise in the Era of the Computer. New York: Free Press, 1986)
  5. Popper K. R. und J. C. Eccles: Das Ich und sein Gehirn; München: Piper, 1982; S. 257 (englisch Original: The Self and Its Brain, Heidelberg: Springer, 1977)
  6. G. E. Moore: Cramming more components onto integrated circuits. In: Electronics. Band 38, Nr. 8, 1965, S. 114–117 (PDF).
  7. Google-KI doppelt so schlau wie Siri – aber ein Sechsjähriger schlägt beide, 5. Oktober 2017.
  8. Minsky
  9. Dokumentarfilm Plug & Pray mit Joseph Weizenbaum und Raymond Kurzweil
  10. a b c d Ian Goodfellow, Yoshua Bengio, Aaron Courville: Deep learning. MIT Press, 2016, ISBN 978-0-262-03561-3, 1 Introduction, S. 1 ff. (deeplearningbook.org).
  11. Martin Giles: The GANfather: The man who’s given machines the gift of imagination. In: MIT Technology Review. (technologyreview.com [abgerufen am 14. November 2018]).
  12. "Künstliche Intelligenz: Jetzt besiegt sie auch noch Profigamer"In: zeit.de, 19. August 2017.