Microsofts Chatbot Tay ist naiv und überfordert. Was sagt das über künstliche Intelligenz?

Screenshot von tai.ai/ThingsToDo

Screenshot von tay.ai/ThingsToDo

Vor wenigen Tagen machte Microsoft Schlagzeilen mit Tay, einem Chatbot, der vor allem auf Twitter gepflegte Konversation betreiben sollte – ein Experiment in künstlicher Intelligenz. Tay ist darauf programmiert, zuzuhören, Geschichten zu erzählen und in Gesprächen dynamisch Antworten zu geben. Aufsehen erregte jedoch eher die Tatsache, dass Tay mit wenigen Tricks manipuliert werden konnte, äußerst menschenverachtende und unabgebrachte Meinungen nachzuplappern. Nach einer von Microsoft verordneten Zwangspause war Tay gestern ein zweites Mal kurz online – und erlitt prompt einen zweiten Zusammenbruch.

Weiterlesen