Microsoft lässt KI auf Twitter & Co. mit Nutzern plaudern

Tay heißt der KI-Chatbot, den Microsoft auf Messengern und sozialen Netzwerken mit realen Nutzern chatten lässt. Die KI soll unter anderem Witze erzählen und Fotos kommentieren können.

In Pocket speichern vorlesen Druckansicht 50 Kommentare lesen
Microsofts jugendlicher Chatbot
Lesezeit: 2 Min.

Microsofts Forschungsabteilung hat eine Chatbot-KI namens Tay entwickelt, die auf Accounts bei Twitter, Facebook, Instagram sowie Messengern wie Groupme postet und mit Nutzern chattet. Damit soll zum einen die Verstehensfähigkeit einer KI in Gesprächen erforscht werden. Zum anderen interessiert sich Microsoft offenbar besonders für die Kommunikationsgewohnheiten junger Leute – Zielgruppe des Bots seien insbesondere 18- bis 24-jährige US-Amerikaner.

Entsprechend gehören Emojis und US-Jugendslang zum Repertoire der KI. Ebenfalls soll sie auch eingesandte Fotos kommentieren, Witze erzählen oder Ratespiele spielen können. Die Konversationsfähigkeiten stammen laut Microsoft zum einen aus dem Mining öffentlicher Datensätze, zum anderen seien auch redaktionell erstellte Gesprächsinhalte integriert, etwa von "Improvisations-Komikern“. Die KI soll im Laufe der Konversationen auch dazulernen.

Wer die KI anschreibt, muss damit rechnen, dass Tay Daten ihres Gegenübers zu einem kleinen Profil aggregiert. Wie Microsoft in den FAQ schreibt, würden der Accountname, das Geschlecht, Lieblingsessen, Postleitzahl und Beziehungsstatus erfasst. Die Daten würden anonymisiert bis zu einem Jahr vorgehalten, um den Dienst zu verbessern. Wer dieses Profil nach einer Konversation löschen will, muss dies über das Kontaktformular über der Tay-Website einfordern.

Auf Twitter steht der Bot bereits in regem Austausch mit Nutzern. Die seit Mittwoch aktive KI kann zur Stunde über 22.000 Follower und mehr 96.000 Tweets vorweisen. Das Spektrum der Nutzerkonversationen reicht von freundlichen Gesprächen ohne Tiefgang bis hin zu internetüblichen Trollereien, wie etwa dem Angebot, der KI Penisbilder zu schicken. Tay kann auf solche Ausfälle offenbar auch mit einem Block des Nutzers reagieren.

Hintergrundwissen zum Thema Künstliche Intelligenz:

  • Die KI-Revolution: Vom Siegeszug der lernenden Software

[UPDATE, 24.03.2015, 11:55]

Die Lernfähigkeit von Tay zeigt sich offenbar auch darin, dass sie die ihr getweeten Inhalte mehr oder minder ungefiltert in ihr Repertoire übernimmt: So berichten Nutzer etwa von Tweets, in denen der Chat-Bot Adolf Hitler lobte und sich zum Menschenhass bekannte. Einem Bericht des Guardian nach gab es ebenfalls Tweets von Tay, die einen Mauerbau um Mexiko befürworten und Donald Trump als einzige Hoffnung Amerikas bezeichneten. Allerdings finden sich diese Botschaften nicht mehr online, hier hat wahrscheinlich doch ein Mensch von Microsoft löschend eingegriffen. (axk)