Künstlich reingelegt

Neben der Spur

Da denkt man noch, dass es darum geht, Künstliche Intelligenz präzise zu entwickeln. Dabei soll das Zeug sich ja irren

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Scheinbar sind wir uns ja einig, wenn es – bald, bald, bald – Computersysteme geben wird, die viel intelligenter als Menschen sind, dann sind die natürlich unfehlbar. Unfehlbar waren bisher nur Gott, der Papst (hat das inzwischen revidiert) und Horst Seehofer (der begreift es nie). Aber es soll kommen, ganz sicher.

Nun ist es aber so, dass man als Maschine nicht fehlerlos werden kann, wenn man keine Fehler erlebt oder macht, deshalb fangen Wissenschaftler jetzt an, die armen Blechbüchsen mit Fehlern zu füttern, damit sie ähnlich wie Menschen diese auch verarbeiten lernen. Hier ist ein Paper dazu, das zeigt, wie nah ein Schäferhund und eine Katze rein optisch sein können. Gut, rein praktisch kann das eben Auswirkungen haben, wenn man sich einem Schäferhund mit "MiezMiezMiez" nähert. Auch Deutsche Schäfer haben ihren Stolz und artikulieren den dann ordentlich.

Aber Unfehlbarkeit wäre hier ein Irrtum. Auch und vor allem für KI-Systeme. Mit entsprechenden Folgen. Deshalb muss das Irren genauso trainiert werden wie das Erkennen. Oder einfacher gesagt: Irren ist KI.

Deshalb macht das alleine schon Sinn, wenn die neue Technik in Apps wie Sketch AR School zum Einsatz kommen soll. Künstliche Intelligenz schaut hier dem Zeichenschüler über die Schulter, macht ein bedenkensvolles Gesicht, sobald sie ein paar Striche auf dem Bildschirm sieht und nickt dann sozusagen übertragen. "Aha", sagt sie. "Du willst ein Einhorn malen. OK, aber Einhorn geht so. Nicht so, wie Du das jetzt machst, das sieht aus wie ein Nilpferd mit einem Pickel auf der Nase." Oder so ähnlich.

Wir gehen jetzt einfach einmal davon aus, dass dieses System inzwischen auch das Paper zum Thema kennt und deshalb frisch von der Leber weg eine Blume zur Zeichnung eines Einfamilienhauses machen will. Warum? Weil es sich auch einmal irren will. Das ist nämlich gut für die Systemgesundheit, hat es gelernt. Und dann verzweifeln die Malschüler, weil sie endlich ihre Blumenwiese fertigzeichnen wollen, ständig aber bei einer Neubausiedlung landen.

Übertragen gesagt.

Hier macht das alles keinen Schaden und viel Sinn, auch wenn deshalb schon der ein oder andere angehende Künstler doch lieber auf Programmierer umgeschult hat. Bei Entwicklungen durch Googles DeepMind könnte das an seine Grenzen stoßen. Zum Beispiel bei der Einschätzung zu einem möglichen Tod im Krankenhaus. Da möchte man eigentlich kein KI-System im Einsatz wissen, das sich gerne mal einen kleinen Scherz erlaubt und mit Grandezza in den Irrtum hineindonnert. Warum? Weil es eben schlau macht. Aber vielleicht auch Tod. Bei einer falschen Einschätzung. Da würde man schon lieber durch einen schussligen Doktor umkommen.

Das wäre irgendwie noch ... menschlicher.