Künstliche Dummheit

Ein KI-Roboter sollte in sozialen Netzwerken lernen, sich mit Menschen zu unterhalten. Raten Sie mal, wie das Experiment ausgegangen ist.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Lesezeit: 2 Min.

So haben wir uns den Fortschritt immer vorgestellt: Microsoft Research schaltet seinen Chatbot Tay online. Die KI-Software soll lernen, Menschen in sozialen Netzwerken "interessante Antworten" zu geben. Und schon nach kurzer Zeit verbreitet die Software massiven rassistischen Unfug: Beschimpft Frauen als Huren, lobt Donald Trump als "einzige Lösung für die USA" bezeichnet den Holocaust als "eine Erfindung" und Hitler als bewundernswerten Politiker.

Statements, die direktemang aus der Höhle der finstersten Internet-Trolle kommen könnten: brutal, menschenverachtend und dumm. Und so peinlich, dass Microsoft die Maschine vorsichtshalber gleich wieder vom Netz nahm.

Bei Licht besehen, ist die Geschichte aber eher beruhigend. Viele hatten sich ja nach dem Sieg von AlphaGo über den weltbesten Go-Spieler Lee Segol – mehr oder weniger klammheimlich – ein bisschen Sorgen gemacht. Denn diese KI konnte zwar nichts weiter als ein asiatisches Brettspiel spielen (wenn auch zugegebenermaßen verdammt gut). Aber die Geschwindigkeit, mit der die Maschine ihre Fähigkeiten verbessert hat, war schon verdammt unheimlich. Wenn die so schnell dazulernen kann, was lernt sie dann als nächstes?

Und dann kommt Microsoft. Leider haben die Microsoft-Forscher bisher nichts darüber verraten, wie Tay eigentlich funktioniert. Könnte aber durchaus sein, dass die Arbeitsgruppe Data Driven Conversations was dazu beigetragen hat. Die haben neuronale Netze verwendet, um Software den Kontext einer Unterhaltung lernen zu lassen. Also die Frage: Um was geht es denn hier eigentlich? Worüber reden wir hier.

Genau das ist, was für Erfolge die KI-Forschung in letzter Zeit auch gefeiert haben mag, noch immer eine extrem harte Nuss für Maschinen. Und genau deswegen ist Tay auch kein Spielkram von irgendwelchen Intellektuellen aus dem Labor, sondern auch kommerziell ziemlich interessant.

Und was auch immer für ein Mechanismus da gelernt hat, er hat ziemlich gut funktioniert. Das ist die zweite Botschaft, die wir aus diesem Experiment ziehen können. Wenn Sie das nächste Mal bei einer Party über künstliche Intelligenz plaudern, wird irgendjemand unweigerlich fragen: Und wann erreichen Maschinen das Level der menschlichen Intelligenz? Dann können Sie, mit Verweis auf Tay, ohne mit der Wimper zu zucken entgegnen: Welche menschliche Intelligenz?

(wst)