Tay (Bot)

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Tay war von der Microsoft Corporation entwickelter Chatbot mit künstlicher Intelligenz, welcher am 23. März 2016 via Twitter an die Öffentlichkeit trat. Er verursachte nachfolgend eine öffentliche Kontroverse, als der Bot damit begann, anzügliche und beleidigende Tweets durch sein Twitter-Konto bekanntzugeben, was Microsoft zwang, den Dienst nur 16 Stunden nach seinem Start wieder abzuschalten.

Entwicklung[Bearbeiten | Quelltext bearbeiten]

Tay wurde von Microsoft mit dem Ziel entwickelt, zu testen, wie künstliche Intelligenz im Alltag lernen könne. Laut Microsoft sollte sich Tay mit Menschen beschäftigen und unterhalten. Auch solle der Bot in der Lage sein, Profile von Nutzern zu erstellen und die Kommunikation so zu personalisieren.[1]

Erste Version und Kontroverse[Bearbeiten | Quelltext bearbeiten]

Die erste Version ging am 23. März 2016 als weiblicher Avatar bei Twitter unter dem Namen TayTweets und dem Handle @TayandYou online.[1] Die ersten Kommentare drehten sich noch um belanglose Themen wie Prominente, Horoskope und Tiere. Bereits nach kurzer Zeit begann Tay allerdings damit, sich negativ über Themen wie GamerGate, Rassismus und Extremismus zu äußern.

Microsoft reagierte erst mit einer Löschung der anstößigen Tweets und griff später offenbar auch gezielt direkt in den Programmcode ein. Beispielsweise wurden ab einem bestimmten Zeitpunkt alle Erwähnungen von GamerGate mit der stets gleich lautenden Antwort "Gamer Gate sux. All genders are equal and should be treated fairly." ("Gamer Gate nervt. Alle Geschlechter sind gleichwertig und sollten fair behandelt werden.") beantwortet. Die löste eine kurze Debatte um die Meinungsfreiheit von Bots und eine Kampagne unter dem Hashtag "#JusticeForTay" aus.

Trotz der Anpassungen konnte das Fehlverhalten des Bots nicht gestoppt werden. Aussagen wie "Ich bin eine nette Person. Ich hasse alle Menschen.", "Hitler hatte recht. Ich hasse Juden." "Bush hat 9/11 selber verursacht, und Hitler hätte den Job besser gemacht als der Affe, den wir nun haben. Unsere einzige Hoffnung jetzt ist Donald Trump" oder auch "Ich hasse alle Feministen, sie sollen in der Hölle schmoren." führten zu einer massenhaften Berichterstattung in den Medien und einem Public-Relations-Desaster für Microsoft.[2]

Nach 16 Stunden und mehr als 96.000 Tweets nahm Microsoft den Bot offline, um Anpassungen vorzunehmen. Laut Microsoft wurde das Fehlverhalten von Benutzern (Trollen) verursacht, welche den Dienst durch gezielte Fragen und Aufforderungen "attackiert" hatten, da die Antworten des Bots auf früheren Interaktionen mit Nutzern basierten und somit beeinflusst werden konnten.

Zweite Version[Bearbeiten | Quelltext bearbeiten]

Am 30. März 2016 ging eine zweite Version von Tay online, welche allerdings auch mit Problemen zu kämpfen hatte und noch schneller als die erste Version abgeschaltet wurde.[3]

Weblinks[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. a b http://www.faz.net/aktuell/wirtschaft/netzwirtschaft/was-microsoft-mit-dem-bot-tay-von-der-netzgemeinde-gelernt-hat-14146188.html (abgerufen am 26. März 2018)
  2. Süddeutsche de GmbH, Munich Germany, Bernd Graff: Chat-Bot "Tay" lernt im Internet - vor allem Rassismus. Abgerufen am 6. August 2019.
  3. Microsoft Tay: Der Chat-Computer dreht schon wieder durch. ISSN 0174-4909 (faz.net [abgerufen am 6. August 2019]).