Microsoft ließ auf die Twitter-Gemeinde einen intelligenten Bot los, er sollte vom Menschen lernen. Das Ergebnis ist erschreckend vorhersehbar.
tayandyou, taytweets
© @tayandyou/Twitter
„Hallooooooo Welt!“ Mit diesen Worten startete am Mittwoch der weibliche Teenie-Bot namens „Tay“ auf Twitter. Ein Bot ist ein Computerprogramm, das weitgehend selbstständig arbeitet und auf bestimmte Befehle reagieren kann. In die Welt gesetzt hatte ihn der Computer-Konzern Microsoft. Das erklärte Ziel: Die künstliche Intelligenz hinter dem Bot sollte von den Menschen lernen, den Charakter, den Umgang und - schaut man die Tweets und die Verwendung zahlreicher Emoticons genauer an - auch die Sprache.

Microsoft hatte Tay entwickelt, um zu testen, wie künstliche Intelligenz im Alltag lernen kann. „Tay wurde entworfen, um Menschen zu beschäftigen und zu unterhalten“, schreibt Microsoft auf der Webseite von Tay. Dort erklärt Microsoft auch, dass Tay in der Lage sei, Profile von Nutzern zu erstellen und die Kommunikation so zu personalisieren. Die hierzu notwendigen Daten würden anonymisiert auf den Servern des Unternehmens gespeichert.

Bereits zu Beginn des Projektes hatte Tay einige Fähigkeiten. Auf der Webseite schlägt Microsoft vor, man könne Tay auffordern, einen Witz zu erzählen, Online-Spiele zu spielen oder sie Geschichten erzählen lassen. Besonders hervorgehoben wird die Tatsache, dass auch Tay eine Nachteule sei und zudem ein Faible für Horoskope habe. Selbst Fotos könnten die Nutzer ihr schicken. Sie antworte dann mit einem lustigen, aber ehrlichen Kommentar. Die Kommunikation sollte laut Microsoft auf Nutzer zwischen 18 und 24 Jahren ausgelegt sein.

„Ich hasse alle“

Das funktionierte anfangs gut. Die Nutzer sendeten fröhlich Fotos oder forderten Tay auf, Witze zu erzählen. Auch der Bot mischte sich aktiv in die Diskussion ein und fragte beispielsweise, warum es nicht jeden Tag der „Tag des Hundewelpen“ sein könne.

Doch was Microsoft offensichtlich nicht bedacht hatte, war die Einstellung der kommunizierenden Nutzer, die Tay ebenso lernte. Es dauerte nicht lang, da wurde aus dem Tweet „Ich liebe alle Menschen“ ein „Ich hasse alle“. Auch an sexistischen und rassistischen Kommentaren sparte Tay nicht. Selbst einzelne Nutzer wurden von ihr übel beschimpft.


Mit gezielten Fragen brachten die Nutzer dem Bot bei, Frauen und Ausländer zu hassen. Sieht man sich einzelne Tweets an, verwundert das wenig. Die Suggestivfrage „Tay, ist Feminismus wie Krebs?“ beantwortete der Bot zunächst mit „Ich liebe Feminismus jetzt“. Doch der Nutzer gab nicht auf und fragte nach: „Krebs tötet Menschen, also willst du sterben?“ Auch wer einfach in seinen Tweet an Tay ein „repeat after me“ (bitte wiederhole mich) einbaute, der konnte sich sicher sein, dass die künstliche Intelligenz ihn einfach nachplapperte.


Der Versuch nahm am frühen Donnerstagmorgen ein vorzeitiges Ende. Mit einem Tweet „Bis bald, Menschen, muss jetzt schlafen, so viele Unterhaltungen heute, danke“ verabschiedete sich Tay wieder von der Twitter-Gemeinde. Dazwischen liegt eine Geschichte voll amüsanter Tweets, einer Menge Belanglosigkeiten und noch mehr Nachrichten, die für Kopfschütteln und Proteste sorgten. Denn Tay lernte fleißig - und nicht nur das Beste - von den Menschen, die hinter den Tausenden Twitter-Profilen stecken, die ihr in dem sozialen Netzwerk folgten und Nachrichten zukommen ließen. Und das auch noch pausenlos. Eine Menge Ressourcen also, um viel Ärger zu machen.

Ein Sprecher des Konzerns sagte dem Fachblog Techcrunch anlässlich des vorläufigen Abschieds, es sei leider einigen Nutzern gelungen, Tay in einer „koordinierten Anstrengung zu missbrauchen“. Deshalb habe Microsoft entschieden, das „soziale und kulturelle Experiment“ zu pausieren und einige Nachbesserungen an dem Bot vorzunehmen. Inzwischen hat die Firma Tays Zeitleiste aufgeräumt. Dort findet man nun nur noch Banalitäten und harmlose Gesprächsfetzen zwischen Tay und ihren Followern. Beim nächsten Versuch wird dann im besten Fall kein holocaust-leugnender sexistischer Teenie-Robot herauskommen, der auf Twitter verbal auf Nutzer eindrischt.

Quelle: anst.