MIT Technology Review 8/2017
S. 30
Horizonte
Künstliche Intelligenz
Aufmacherbild
Illustration: Pablo Delcan

Was denkt sich die KI?

Niemand weiß wirklich, wie selbstlernende Algorithmen zu ihren Schlüssen kommen. Das führt schon heute zu Schwierigkeiten, und je breiter das Maschinenlernen eingesetzt wird, desto offenkundiger wird das Problem. Wenn Forscher es nicht lösen, entwickelt sich die KI zur Gefahr.

Es war ein seltsames Auto, das da im vergangenen Jahr durch die stillen Straßen von Monmouth County, New Jersey, fuhr: Von außen sah es zwar aus wie jedes andere selbstfahrende Auto – doch sein Innenleben glich in nichts dem, was man bisher von Google, Tesla oder General Motors kennt. Das Fahrzeug folgte keiner einzigen Anweisung, die ihm irgendein Programmierer oder Ingenieur vorgegeben hatte. Stattdessen war sein Algorithmus darauf ausgerichtet, sich das Fahren komplett selbst beizubringen – indem er Menschen dabei beobachtet hatte (siehe TR 5/2017, S. 62).

Mit dem beeindruckenden Kunststück wollten Forscher des Chipherstellers Nvidia zeigen, dass eine KI sogar dazu in der Lage ist. Aber es ist gleichzeitig ziemlich beunruhigend. Denn niemand weiß, wie das Auto seine Entscheidungen trifft. Hat es wirklich die richtigen Schlüsse aus dem Verhalten anderer Verkehrsteilnehmer gezogen? Hat die Bilderkennung tatsächlich alles korrekt kategorisiert, beispielsweise einen so lebenswichtigen Hinweis wie ein Stoppschild? Wie verhängnisvoll eine Fehlentscheidung sein kann, hat ein Vorfall im vergangenen Jahr gezeigt: Ein Tesla war im Autopilot-Modus ungebremst auf einen Sattelschlepper gefahren, der Fahrer sofort tot. Womöglich hatte das System den weißen Lkw für den Himmel gehalten – das ließ sich nicht endgültig klären.