Watson (Künstliche Intelligenz)

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Watson ist ein Computerprogramm aus dem Bereich der Künstlichen Intelligenz. Es wurde von IBM entwickelt, um Antworten auf Fragen zu geben, die in digitaler Form in natürlicher Sprache eingegeben werden. Das nach Thomas J. Watson, einem der ersten Präsidenten von IBM, benannte Programm wurde als Teil des DeepQA-Forschungsprojektes entwickelt[1].

Zur Demonstration seiner Leistungsfähigkeit konkurrierte das Programm in drei vom 14. bis 16. Februar 2011 ausgestrahlten Folgen der Quizsendung Jeopardy mit zwei menschlichen Gegnern, die in der Show zuvor Rekordsummen gewonnen hatten. Die Partie, für die ein Preisgeld von einer Million Dollar ausgelobt war, wurde in den Medien daher mit dem Duell des Schachweltmeisters Garri Kasparow gegen den Computer Deep Blue verglichen.[2] Das System gewann das Spiel mit einem Endstand von $77.147 gegenüber den $24.000 bzw. $21.600 seiner menschlichen Konkurrenten.[3][4]

Hintergrund und Zielsetzung[Bearbeiten]

Ziel des Projekts ist es letztlich, eine hochwertige Semantische Suchmaschine zu schaffen. Diese soll den Sinn einer in natürlicher Sprache gestellten Frage erfassen und in einer großen Datenbank, die ebenfalls Texte in natürlicher Sprache umfasst, innerhalb kurzer Zeit die relevanten Passagen und Fakten auffinden. Eine derartige Software könnte in vielen Bereichen, etwa der medizinischen Diagnostik, komplexe Entscheidungen unterstützen, insbesondere wenn diese unter Zeitdruck getroffen werden müssen.

Watson implementiert Algorithmen der Natürlichen Sprachverarbeitung und des Information Retrieval, aufbauend auf Methoden des Maschinellen Lernens, der Wissensrepräsentation und der automatischen Inferenz.[5] Das System enthält Softwaremodule zur Erstellung von Hypothesen, ihrer Analyse und Bewertung. Es greift dabei auf eine Aussagensammlung und umfangreiche Textbestände zurück, ist jedoch nicht mit dem Internet verbunden. Anfragen an Watson werden bislang in Textform gestellt. Anders als aktuelle Systeme wie z.B. Wolfram Alpha benötigt es jedoch keine formale Abfragesprache. Seit Februar 2011 arbeitet IBM mit der Firma Nuance zusammen, einem führenden Hersteller von Software zur Spracherkennung. Die geplante Fähigkeit, auch gesprochene Fragen zu bearbeiten, soll den Einsatz einer spezialisierten Version Watsons im Gesundheitswesen erleichtern.[6]

IBM plant, auf Watson basierende Systeme im Laufe der nächsten Jahre kommerziell zu vermarkten. Der Leiter des zuständigen Forschungslabors geht davon aus, dass die Kosten des Gesamtsystems zunächst mehrere Millionen US-Dollar betragen könnten, da bereits die notwendige Hardware mindestens eine Million Dollar kostet.[7] Im Rahmen von Pilotstudien wurde das System bislang unter anderem dazu verwendet, Vorhersagen zu treffen, welche Arzneistoffe gegen bestimmte Krankheiten wirksam sein könnten; durch Integration zahlreicher Sensordaten und Informationen zu Umwelteinflüssen vorherzusagen, welche Bauteile komplexer Industriemaschinen Gefahr laufen vorzeitig auszufallen und daher gewartet werden sollten; aber auch dazu, innovative Kombinationen von Zutaten für schmackhafte Kochrezepte vorzuschlagen.[8]

Auftritt bei Jeopardy![Bearbeiten]

Ken Jennings, ein 74-maliger Sieger bei Jeopardy!, unterlag im Februar 2011 dem Computerprogramm Watson

Die Quizshow Jeopardy! stellt Systeme zur automatischen Beantwortung natürlichsprachiger Fragen vor eine interessante Herausforderung, da die als Antworten gestellten Aufgaben meist bewusst mehrdeutig formuliert sind, häufig die Verknüpfung mehrerer Fakten erforderlich machen und die passende Frage innerhalb eines Zeitlimits von fünf Sekunden gefunden werden muss. Die Entwickler des System Watson setzten sich daher das Ziel, in diesem Spiel menschliche Kandidaten zu schlagen.

Bei ersten Testläufen im Jahr 2006 fand Watson nur für etwa 15 % von 500 Umschreibungen vorangegangener Jeopardy!-Sendungen die korrekte Frage. Die besten Kandidaten von Jeopardy! erreichen im Vergleich dazu etwa 95 % Genauigkeit. Im Laufe der nächsten Jahre wurde Watson mit einer Datenbank von ungefähr 100 Gigabyte an Texten ausgestattet, darunter Wörterbücher, Enzyklopädien, wie z. B. die gesamte Wikipedia, und anderes Referenzmaterial. Watson hat jedoch keine Verbindung zum Internet, ist also, wie seine menschlichen Gegenspieler, auf sich allein gestellt. Die Informationen werden unter anderem statistisch ausgewertet, um Sinnbezüge herzuleiten. Anstatt sich auf einen einzelnen Algorithmus zu stützen, nutzt Watson hunderte davon gleichzeitig, um über einen Pfad eine potentiell richtige Antwort zu finden. Je mehr Algorithmen unabhängig voneinander die gleiche Antwort erreichen, als desto wahrscheinlicher wird es angesehen, dass Watson die korrekte Lösung gefunden hat. Wenn das System für eine Aufgabe eine kleine Anzahl potentieller Lösungen erarbeitet hat, werden diese anhand einer Datenbank überprüft, um zu bewerten, welche davon als potentiell sinnvoll gelten können. Dazu werden z. B. Zeitangaben überprüft.

In einer Sequenz von 20 Übungsspielen nutzten die menschlichen Kandidaten die 6 bis 8 Sekunden Dauer während des Lesens des Ratebegriffes dazu, den Buzzer zu betätigen und die korrekte Antwort zu geben. Das auf diese Zeitspanne optimierte System Watson evaluiert eine Antwort und entscheidet, ob es genügend Sicherheit bezüglich des Ergebnisses gibt, um den Buzzer auszulösen.[7][9]

Seit Februar 2010 ist Watson in der Lage, im Rahmen regelgerechter Partien menschliche Jeopardy!-Kandidaten zu schlagen.[10] IBM stellte zunächst eine Übungssituation in einem Konferenzraum im Thomas J. Watson Research Center in Yorktown Heights, New York, nach, die die Situation bei Jeopardy nachahmt, und ließ Einzelpersonen, einschließlich früherer Jeopardy-Kandidaten, in Probespielen gegen Watson teilnehmen, mit Todd Alan Crain von The Onion als Quizmaster. Dem Computersystem, auf dem Watson ausgeführt wurde, wurden die Ratebegriffe (als Antwort auf eine Frage) elektronisch übermittelt und es war in der Lage, den Buzzer zu betätigen und mit einer elektronischen Stimme die Antworten im Jeopardy-eigenen Frageformat zu geben.[7][9]

Schließlich trat Watson bei Jeopardy in drei Sendungen, die zwischen dem 14. und 16. Februar 2011 ausgestrahlt wurden, gegen die früheren Champions Ken Jennings und Brad Rutter an, welche in der Show zuvor Rekordsummen gewonnen hatten. Nachdem das System Watson und der Kandidat Rutter nach der ersten Runde noch gleichauf lagen, ging Watson aus den beiden anderen als klarer Sieger hervor. Das Preisgeld von einer Million US-Dollar stellte IBM gemeinnützigen Zwecken zur Verfügung. Jennings und Rutter kündigten an, jeweils die Hälfte ihrer Preise von $300.000 bzw. $200.000 zu spenden.[3]

Aufbau[Bearbeiten]

Die Softwareengine von Watson ist DeepQA. Diese läuft bei Watson auf dem Betriebssystem SUSE Linux Enterprise Server.[11]

Der Rechnerverbund besteht aus 90 Power 750 Servern mit 16 TB RAM. Jeder Server besitzt einen mit 3,5 GHz getakteten Power7 8-Kern Prozessor, wobei jeder Kern bis zu 4 Threads gleichzeitig ausführt.[12][13]

Geschrieben wurde DeepQA in verschiedenen Programmiersprachen; darunter Java, C++ und Prolog. DeepQA ist hierbei in Form von Annotatoren einer UIMA-Pipeline implementiert.[14][15]

Durch den Einsatz von UIMA Asynchronous Scaleout und Hadoop wird eine massive Parallelisierung ermöglicht. Spezielle UIMA Annotatoren ermöglichen dabei eine Abbildung auf Hadoop MapReduce-Schema um eine große Anzahl von Textdokumenten parallel durchsuchen zu können.

Funktionsweise[Bearbeiten]

Funktionsweise von IBM Watson

Watson übernimmt eine Jeopardy!-Antwort (die Frage) in elektronischer Form. Eine solche Jeopardy!-Antwort kann dabei sehr komplex sein und aus mehreren Sätzen, Rätseln und Wortwitzen bestehen.

Linguistischer Präprozessor[Bearbeiten]

Die Jeopardy!-Antwort wird von der DeepQA-Engine mit Hilfe eines Linguistischen-Präprozessors analysiert. Dabei wird die logische Struktur mit Hilfe eines Parsers des Satzes als Baum in Prolog abgebildet.

Ein Tokenizer, bestehend aus UIMA-Annotatoren für Pattern Matching, kümmert sich um die Abbildung auf Lexikalische Antworttypen (LAT). Dabei wird die Beziehung der Satzteile zueinander (die Grammatik) analysiert. Das betrifft insbesondere das Pronomen, sowie Wörter die angeben welche Klasse von Antwort (zB. Poet, Land, Epoche, etc.) gesucht wird.[16]

Das Pronomen wird – sofern dieses nicht als solches erkennbar ist – dadurch gefunden, dass durch dessen Entfernung aus der Frage eine Aussage wird. Auf diesen Teil des Satzes legt DeepQA den Fokus bei der Kandidatenbewertung.[17]

Kandidatengenerierung[Bearbeiten]

Die Kandidatengenerierung nimmt den Prolog-Code des Linguistischen Präprozessors entgegen und leitet diese an verschiedene Suchmaschinen weiter. Hierbei wird etwa INDRI und Lucene für die Durchsuchung von unstrukturierten Dokumenten eingesetzt, welche in einem HDFS gespeichert sind. Zudem gibt es spezielle Engines die den LAT-Prolog-Code entgegennehmen und SPARQL-Abfragen auf semantischen Datenbanken (Triplestores) bzw. SQL-Abfragen auf relationalen Datenbanken durchführen, welche auf DB2 basieren[18]. Die Dokumente decken hierbei ein breiteres Wissensgebiet ab und sind schneller durchsuchbar, während die strukturierten und insbesondere semantischen Datenquellen eine höhere Genauigkeit bieten.[17]

Die Daten stammen aus verschiedenen Quellen, wie etwa DBpedia, Wordnet, Yago, Cyc, Freebase, Wikipedia, IMDB, World Book Encyclopedia, der Bibel sowie verschiedenen Taxonomien und Ontologien, Literarischen Werken und Artikeln von PR Newswire und New York Times. Zudem werden Webseiten analysiert und in Form von Textschnipseln in den Datenbanken von Watson gespeichert.[17]

DeepQA generiert dabei zwischen 100 und 250 Suchergebnisse. Diese Ergebnisse (Kandidaten) stellen Hypothesen für die mögliche Antwort dar.[17]

In Jeopardy! hat Watson keinen Zugriff auf das Internet, sondern nur auf die Daten in den internen Datenbanken. Prinzipiell hat DeepQA für zukünftige Anwendungen jedoch auch die Möglichkeit weitere Informationen aus dem Internet zu beziehen und mit Hilfe von Webservices auch Echtzeitdaten zu berücksichtigen.

Kandidatenbewertung[Bearbeiten]

Die wahrscheinlichsten Ergebnisse der Suche werden genauer analysiert. Hierzu besitzt DeepQA mehrere tausend Softwareagenten die jeweils eine ganz spezielle Analyse parallel durchführen. Hierzu gehören vor allem Agenten für die Analyse von zeitlichen (temporalen) und räumlichen (spartiellen) Zusammenhängen, Taxonomien, einfachen Berechnungen für Rechenrätsel, Bewertung der Akustik für Wörter die ähnlich klingen, Scrabble-Bewertung für Wörter deren Buchstaben vertauscht wurden, Agenten, die Suchergebnisse einer genaueren semantischen Analyse durchführen, sowie viele andere mehr.

Diese Analyse umfasst oft ein sehr breites Wissensspektrum, wobei verschiedene Kandidaten und Wissensdomänen von den jeweiligen Agenten voneinander unabhängig und massiv parallel analysiert werden. Da jedes Suchergebnis von bis zu tausend Agenten analysiert wird, multipliziert sich die Anzahl der gleichzeitig analysierten Evidenzfragmenten. Aus den 100 bis 250 Hypothesen werden somit bis zu 100.000 Evidenzfragmenten die in unabhängigen Threads analysiert werden. Ein Softwarefilter eliminiert alle Ergebnisse von Agenten, die keinen Beweis für die Richtigkeit eines Suchergebnisses erbracht haben.

Weblinks[Bearbeiten]

Videos[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1. The DeepQA Project. IBM, abgerufen am 14. Oktober 2012 (englisch).
  2. First Came the Machine That Defeated a Chess Champion. New York Times, 16. Februar 2011, abgerufen am 10. September 2011 (englisch).
  3. a b On ‘Jeopardy,’ Watson’s a Natural. New York Times, 16. Februar 2011, abgerufen am 16. Februar 2011.
  4. Watson lässt Quizkönige alt aussehen. Der Spiegel, abgerufen am 16. Februar 2011.
  5. DeepQA FAQs. IBM, abgerufen am 14. Oktober 2012.
  6. Pressemitteilung der Firma Nuance (englisch) vom 17. Februar 2011, abgerufen am 24. Februar 2011.
  7. a b c Clive Thompson: What Is I.B.M.’s Watson? New York Times, 14. Juni 2010, abgerufen am 2. Juli 2010 (englisch).
  8. And Now, From I.B.M., Chef Watson. New York Times, 27. Februar 2013, abgerufen am 4. März 2013 (englisch).
  9. a b Computer: Watson und die Pet Shop Boys. Spiegel Online, 12. Juli 2010, abgerufen am 14. Oktober 2012.
  10. Jon Brodkin: IBM's Jeopardy-playing machine can now beat human contestants. Network World, 10. Februar 2010, abgerufen am 14. Oktober 2012 (englisch).
  11. IBM Watson runs SUSE Linux Enterprise Server. Novell, abgerufen am 10. September 2011 (englisch).
  12. Vorlage:Internetquelle/Wartung/Zugriffsdatum nicht im ISO-FormatVorlage:Internetquelle/Wartung/Datum nicht im ISO-FormatAmara D. Angelicas: How Watson works: a conversation with Eric Brown, IBM Research Manager. 31. Januar 2011, abgerufen am 16. Februar 2011 (englisch).
  13. Is Watson the smartest machine on earth? 10. Februar 2011, abgerufen am 14. Oktober 2012.
  14. Dean Takahashi: IBM researcher explains what Watson gets right and wrong. VentureBeat, 17. Februar 2011, abgerufen am 18. Februar 2011 (englisch).
  15. Adam Lally, Paul Fodor: Natural Language Processing With Prolog in the IBM Watson System. The Association for Logic Programming, 31. März 2011, abgerufen am 18. Oktober 2001 (englisch).
  16. Adam Lally, Paul Fodor: Natural Language Processing With Prolog in the IBM Watson System. 24. Mai 2011, abgerufen am 14. Oktober 2012 (PDF; 67 kB, englisch).
  17. a b c d David Ferrucci, Eric Brown, Jennifer Chu-Carroll, James Fan, David Gondek, Aditya A. Kalyanpur, Adam Lally, J. William Murdock, Eric Nyberg, John Prager, Nico Schlaefer, Chris Welty: The AI behind Watson - The Technical Article. In: AI Magazine. AAAI, 2010, abgerufen am 14. Oktober 2012.
  18. Howard Baldwin: Smarter is: Making Watson smarter…faster. IBM Data Management magazine, 15. April 2011, abgerufen am 28. Oktober 2012.