Tay (Bot)

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Tay war ein Chatbot mit künstlicher Intelligenz, der ursprünglich von der Microsoft Corporation entwickelt wurde und am 23. März 2016 via Twitter an die Öffentlichkeit trat. Er verursachte nachfolgend eine öffentliche Kontroverse, als der Bot anfing, anzügliche und beleidigende Tweets durch sein Twitter-Konto bekanntzugeben, was Microsoft zwang, den Dienst nur 16 Stunden nach seinem Start wieder abzuschalten. Laut Microsoft wurde dies von Benutzern (Trollen) verursacht, die den Dienst durch gezielte Fragen und Aufforderungen "attackierten", da der Bot Antworten auf seine Interaktionen mit Leuten auf Twitter machte.

Entwicklung[Bearbeiten | Quelltext bearbeiten]

Tay wurde von Microsoft mit dem Ziel entwickelt zu testen, wie künstliche Intelligenz im Alltag lernen kann.[1] Laut Microsoft soll sich Tay mit Menschen beschäftigen und unterhalten. Auch sei er in der Lage, Profile von Nutzern zu erstellen und die Kommunikation so zu personalisieren.[1]

Erste Version[Bearbeiten | Quelltext bearbeiten]

Die erste Version von Tay ging am 23. März 2016 bei Twitter unter dem Namen TayTweets und dem Handle @TayandYou online.[1] Tay war ein selbstlernendes Chatprogramm mit weiblichem Avatar auf Kik, GroupMe und Twitter und hatte Accounts bei Facebook, Snapchat und Instagram.[2] Weniger als vierundzwanzig Stunden später wurde Tay wieder abgeschaltet laut Microsoft "ins Bett geschickt", nachdem er sich zu einem Völkermord bejahenden Internet-Troll voller Hass und Hetze entwickelt hatte.[1]

Zweite Version[Bearbeiten | Quelltext bearbeiten]

Am 30. März 2016 wurde eine zweite Version von Tay veröffentlicht, welche allerdings auch mit Problemen zu kämpfen hatte und noch schneller als die erste Version abgeschaltet wurde.[3]

Weblinks[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. a b c d http://www.faz.net/aktuell/wirtschaft/netzwirtschaft/was-microsoft-mit-dem-bot-tay-von-der-netzgemeinde-gelernt-hat-14146188.html (abgerufen am 26. 03. 2018)
  2. http://www.zeit.de/digital/internet/2016-03/microsoft-tay-chatbot-twitter-rassistisch (abgerufen am 26. 03. 2018)
  3. http://www.faz.net/aktuell/wirtschaft/netzwirtschaft/chat-bot-tay-von-microsoft-dreht-schon-wieder-durch-14151785.html (abgerufen am 26. 03. 2018)