Turing-Test

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
In der üblichen Form des Turing-Tests versucht C zu entscheiden, ob es sich bei A oder B jeweils um einen Computer oder einen Menschen handelt. A und B versuchen C davon zu überzeugen, dass sie selbst Menschen sind.

Der Turing-Test wurde 1950 von Alan Turing vorgeschlagen, um festzustellen, ob eine Maschine ein dem Menschen gleichwertiges Denkvermögen hat. Der aus der Anfangszeit des Informatik-Teilbereichs Künstliche Intelligenz stammende und seither legendäre Test trug dazu bei, den alten Mythos von der denkenden Maschine für das Computerzeitalter neu zu beleben.

Testablauf[Bearbeiten]

Im Zuge dieses Tests führt ein menschlicher Fragesteller über eine Tastatur und einen Bildschirm ohne Sicht- und Hörkontakt mit zwei ihm unbekannten Gesprächspartnern eine Unterhaltung. Der eine Gesprächspartner ist ein Mensch, der andere eine Maschine. Beide versuchen, den Fragesteller davon zu überzeugen, dass sie denkende Menschen sind. Wenn der Fragesteller nach der intensiven Befragung nicht klar sagen kann, welcher von beiden die Maschine ist, hat die Maschine den Turing-Test bestanden, und es wird der Maschine ein dem Menschen ebenbürtiges Denkvermögen unterstellt.

Kritik[Bearbeiten]

Es ist eine Reihe von Argumenten vorgebracht worden, die den Turing-Test als ungeeignet zur Feststellung von Intelligenz ansehen:

  • Die Simulation einer zwischenmenschlichen Unterhaltung sei weniger als Intelligenz und teste also nur einen Teil dessen, was unter (menschlicher) Intelligenz verstanden wird.
  • Eine Maschine könne intelligent sein, ohne dass sie wie ein Mensch kommunizieren kann.
  • Viele Menschen, beispielsweise kleine Kinder oder Menschen mit psychischen Problemen, bestünden den Turing-Test nicht, obwohl sie intelligent seien.
  • Menschen, die nicht mit den Testbedingungen kooperieren, würden den Test nicht bestehen. Dies sei auch für die postulierte intelligente Maschine denkbar. Die Nichtkooperation zeuge nicht von mangelnder Intelligenz.
  • Da die Maschine mit einem Menschen verglichen werde und Menschen sehr unterschiedlich sind, sei der Test nicht standardisierbar.
  • Der Turing-Test prüfe nur auf Funktionalität, nicht auf das Vorhandensein von Intentionalität oder eines Bewusstseins. Dieses Argument wurde unter anderem von John Searle in seinem Gedankenexperiment des Chinesischen Zimmers ausgearbeitet. Turing war sich dieser Problematik bereits bei der Formulierung seines Tests bewusst, war allerdings der Ansicht, dass dieser auch als Nachweis für ein Bewusstsein gelten könne.[1] Searle lehnt dies hingegen ab.[2]

Prognosen und Ergebnisse[Bearbeiten]

Turing vermutete, dass es bis zum Jahr 2000 möglich sein werde, Computer so zu programmieren, dass der durchschnittliche Anwender eine höchstens 70-prozentige Chance habe, Mensch und Maschine erfolgreich zu identifizieren, nachdem er fünf Minuten mit ihnen „gesprochen“ hat. Dass sich diese Vorhersage bisher nicht erfüllte, sehen viele als einen Beleg für die Unterschätzung der Komplexität natürlicher Intelligenz.

Programme wie ELIZA sind Versuchspersonen gegenüber kurzzeitig als menschlich erschienen, ohne dass sie den Turing-Test formal bestehen könnten. In ihrer Antwortstrategie gingen sie nur scheinbar auf ihr Gegenüber ein; den Versuchspersonen war nicht bewusst, dass sie es mit nichtmenschlichen Gesprächspartnern zu tun haben könnten.

Im Oktober 2008 wurde bei einem Experiment an der University of Reading, bei dem sechs Computerprogramme teilnahmen, die 30-Prozent-Marke knapp verfehlt. Das beste Programm schaffte es, 25 Prozent der menschlichen Versuchsteilnehmer zu täuschen.[3]

Am 3. September 2011 nahm die KI-Webapplikation Cleverbot zusammen mit wahren Personen an einem am Turing-Test angelehnten Versuch beim technischen Festival 2011 am indischen Institut IIT Guwahati teil. Die Ergebnisse wurden am 4. September bekannt gegeben. 59 % von 1334 Personen hielten Cleverbot für einen Menschen. Die menschlichen Konkurrenten hingegen erzielten 63 %. Allerdings durften diese Personen Cleverbot nicht selbst befragen, sondern waren lediglich Zuschauer.[4] „Welch durchaus überraschendes Ergebnis. Sogar höher als selbst ich erwartet oder gar erträumt hätte“, sagte der britische Informatiker Rollo Carpenter während einer Vorlesung beim Technischen Festival.

Praktische Bedeutung[Bearbeiten]

Bei der Abwehr von Spam ist es erforderlich, automatisierte Eingaben von solchen zu unterscheiden, die von Menschen stammen. Das dafür häufig verwendete CAPTCHA-Verfahren leitet seinen Namen vom Turing-Test ab (Completely Automated Public Turing test to tell Computers and Humans Apart). Human Interaction Proof (HIP) ist eine andere Bezeichnung für diese Methode.

Loebner-Preis[Bearbeiten]

Der Loebner-Preis ist seit 1991 ausgeschrieben und soll an das Computerprogramm verliehen werden, das als erstes einen erweiterten Turing-Test besteht, bei dem auch Multimedia-Inhalte wie Musik, Sprache, Bilder und Videos verarbeitet werden müssen. Der Preis ist nach Hugh G. Loebner benannt und mit 100.000 US-Dollar und einer Goldmedaille dotiert, eine Silbermedaille und 25.000 Dollar gibt es für das Bestehen des schriftlichen Turing-Tests. Bisher konnte jedoch kein Computerprogramm die nötigen Voraussetzungen erfüllen. Weiterhin wird jährlich ein Loebner-Preis an das Computerprogramm verliehen, das einem menschlichen Gespräch am nächsten kommt. Dieser ist mit 2.000 US-Dollar und einer Bronzemedaille dotiert.

Kulturelle Referenzen[Bearbeiten]

  • Philip K. Dick verwendete in seinem 1968 erschienenen Roman Träumen Androiden von elektrischen Schafen? (1982 verfilmt unter dem Titel Blade Runner) den so genannten Voight-Kampff-Test, eine Variante des Turing-Tests. In einer gar nicht fernen Zukunft (2019) werden dort künstliche Menschen, so genannte Replikanten, die physisch den Menschen gleichen, einem Empathietest unterzogen, der durch lange Befragungen ihre emotionale Reaktion prüft und hervorbringen soll, ob sie Mensch oder Replikant sind.
  • Beim 2K BotPrize prüfen menschliche Tester im Computerspiel Unreal Tournament 2004 Bots auf menschliche Reaktionen. Ziel ist es, einen Bot so zu programmieren, dass er von einem menschlichen Spieler nicht mehr zu unterscheiden ist.[5][6][7]
  • In Ian McDonalds Science-Fiction-Roman River of Gods (2004; deutsch: Cyberabad, 2012), wird eine Welt entworfen, in der künstliche Intelligenzen ab einer höher entwickelten, dem Menschen vergleichbaren Stufe verboten sind. Der Turing-Test zur Prüfung des Grades einer KI wird hier mit dem Argument verworfen, dass eine genügend hoch entwickelte Intelligenz das eigene Scheitern bei dem Test auch selbst provozieren könnte.

Literatur[Bearbeiten]

  • Alan Turing: Computing Machinery and Intelligence. In: Mind 59, Nr. 236, Oktober 1950, S. 433–460 (online).
  • Alan Turing: Computing Machinery and Intelligence. In: R. Epstein, G. Roberts, G. Beber (Hrsg.): Parsing the Turing Test. Springer Netherlands, 2008, S. 23–65, doi:10.1007/978-1-4020-6710-5_3 (Fassung mit Kommentaren von Kenneth Ford, Clark Glymour, Pat Hayes, Stevan Harnad und Ayse Pinar).
  • Donald Davidson: Turings Test. In: Donald Davidson: Probleme der Rationalität. Suhrkamp, Frankfurt am Main 2004, ISBN 3-518-58471-5.
  •  Albrecht Behmel: Was sind Gedankenexperimente? Kontrafaktische Annahmen in der Philosophie des Geistes – der Turingtest und das Chinesische Zimmer. ibidem, Stuttgart 2001, ISBN 978-3-89821-109-3.
  • Stuart M. Shieber (Hrsg.): The Turing Test. Verbal Behavior as the Hallmark of Intelligence. The MIT Press, Cambridge 2004.

Weblinks[Bearbeiten]

 Commons: Turing-Test – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise[Bearbeiten]

  1. Alan M. Turing: 4. In: Computing machinery and intelligence. Mind (journal), 1950.
  2. John Searle: The Rediscovery of the Mind. M.I.T. Press, Cambridge, Massachusetts 1992.
  3. Computers still not quite clever enough to fool humans, Turing Test shows. In: The Daily Telegraph, 12. Oktober 2008.
  4. Software tricks people into thinking it is human. Website des New Scientist. Abgerufen am 14. März 2012.
  5. Lars Sobiraj: Unreal Tournament 2004: Wenn Bots menschlicher als Menschen spielen auf gulli.com vom 29. September 2012 abgerufen am 1. Oktober 2012.
  6. David Cornish: Unreal Tournament bots appear more human than humans auf Ars Technica vom 29. September 2012 abgerufen am 1. Oktober 2012.
  7. http://botprize.org/