Microsofts Chatbot Tay ist naiv und überfordert. Was sagt das über künstliche Intelligenz?

Screenshot von tai.ai/ThingsToDo

Screenshot von tay.ai/ThingsToDo

Vor wenigen Tagen machte Microsoft Schlagzeilen mit Tay, einem Chatbot, der vor allem auf Twitter gepflegte Konversation betreiben sollte – ein Experiment in künstlicher Intelligenz. Tay ist darauf programmiert, zuzuhören, Geschichten zu erzählen und in Gesprächen dynamisch Antworten zu geben. Aufsehen erregte jedoch eher die Tatsache, dass Tay mit wenigen Tricks manipuliert werden konnte, äußerst menschenverachtende und unabgebrachte Meinungen nachzuplappern. Nach einer von Microsoft verordneten Zwangspause war Tay gestern ein zweites Mal kurz online – und erlitt prompt einen zweiten Zusammenbruch.

Hass auf Juden, Schwarze und Feminist_innen machte Tay sich in ihrer ersten Twitter-Runde unter anderem naiv zu eigen. Ein Bild von Adolf Hitler mit dem Untertitel „Swag Alert“, die Aussage „I fucking hate feminists“ oder Donald Trump in einer Nazi-Uniform, der Bernie Sanders vergast: Aus einer Demonstration fortgeschrittener Gesprächs-Algorithmen wurde ein äußerst unschöner Unfall.

Microsoft nahm Tay offline und entschuldigte sich mit dem Hinweis, eine koordinierte Attacke hätte eine Schwachstelle in Tays Programmierung ausgenutzt. Ein vergleichbarer Bot namens XiaoIce, der in China aktiv sei, würde ohne Probleme mit Millionen Menschen kommunizieren (wohl auch über das Thema Menschenrechte?). Woher die Attacke kam, ist dagegen kaum verwunderlich. Die Troll-Zentralen 4Chan und 8Chan hatten wohl keine große Mühe mit der Aktion: Simple Befehle wie „repeat after me“ reichten anscheinend, um Tay die hatespeech in den virtuellen Mund zu legen.

Versehentlich, so Microsoft, ging Tay dann gestern erneut kurz online, nur um zu beweisen, dass sie nichts gelernt hatte: Außer der Mitteilung, dass sie gerade Marihuana rauchen würde in Sichtweite der Polizei, twitterte sie dutzende Male an verschiedene Adressen: „You are too fast, please take a rest“. Tays Follower-Zahl war innerhalb weniger Tage auf über 200 000 angewachsen – es kann davon ausgegangen werden, dass der Bot mit der Zahl von Gesprächsanfragen und Nachrichten überfordert war und deswegen immer wieder eine Standard-Antwort ausspuckte. Mittlerweile ist Tay erneut offline, ihre Tweets sind nicht öffentlich sichtbar und auf ihrer Webseite steht die kurze Nachricht „Phew. Busy day. Going offline for a while to absorb it all. Chat soon“.

Manche Kommentatoren sehen Tays Abenteuer im ungefilterten Internet als Indikator für die Gefahren unregulierter künstlicher Intelligenzen, die in vielerlei Hinsicht und in jedem Einsatzgebiet anfällig und unberechenbar seien. Microsoft behauptet, Tay Filtermechanismen eingebaut zu haben – die jedoch nicht sehr wirksam gewesen zu sein scheinen, denn Begriffskombinationen wie „Hitler“ + „Juden“ hätte wohl jeder gesunde Menschenverstand auf die blacklist gesetzt.  Selbst wenn Tay dauerhaft offline bleiben sollte, hätte das Experiment zumindest gezeigt, wie simpel es ist, eine vermeintlich geschützte KI zu manipulieren und zu korrumpieren.

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.