Das Terminator-Syndrom

Darf man sich öffentlich Sorgen machen? Ja, aber nur über bestimmte Dinge. Krankheit, Hunger und Armut gehören nicht dazu - das will keiner wissen. Klima ist auch ziemlich totgeritten. Aber wie wäre es mit der drohenden "Weltherrschaft intelligenter Maschinen"?

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 3 Min.

Darf man sich öffentlich Sorgen machen? Ja, aber nur über bestimmte Dinge. Krankheit, Hunger und Armut gehören nicht dazu - das will keiner wissen. Klima ist auch ziemlich totgeritten. Aber wie wäre es mit der drohenden "Weltherrschaft intelligenter Maschinen"?

Schmarrn, sagen Sie? Die gibt es doch gar nicht. Und wird es vielleicht nie geben. Kein Grund, sich keine Sorgen zu machen. Erst vor kurzem haben jedenfalls diverse führende Wissenschaftler in einem offenen Brief davor gewarnt, die KI-Forschung könne Systeme erschaffen, die außer Kontrolle geraten. Kein Scherz.

Unter den Unterzeichnern finden sich honorige, ernsthafte Leute wie die Entwicklungschefs von Google und Microsoft, Peter Norvig und Eric Horvitz, Jaan Tallinn, der Mitgründer von Skype, der Physiker Stephen Hawking und auch Elon Musk, der Chef von Tesla Motors.

Dass Musk auf dieser Liste steht, ist natürlich keine Überraschung. Erst im im November vergangenen Jahres hatte der Tesla-Chef bei Edge.org - einem exklusiven Debattierzirkel technisch, wissenschaftlicher Intellektueller, vor den Gefahren intelligenter Maschinen gewarnt, berichtete beispielsweise das - nicht unbedingt als extrem reißerisch bekannte - Manager-Magazin. Der Forstschritt auf diesem Gebiet sei "unglaublich schnell", zitieren die Kollegen Musk. "Es besteht das Risiko, dass binnen fünf Jahren etwas ernsthaft Gefährliches passiert." Maximal dauere es noch zehn Jahre.

Schade nur, dass Musk den Text schon bald darauf wieder gelöscht haben soll. Aber da das Internet nichts vergisst, kann das Posting bei Reddit.com nachlesen.

Denn auch wenn diese Diskussion ein bisschen paranoid anmutet, führt sie zu einem Haufen wirklich interessanter Fragen. Unter anderem zu der Frage, ob es möglich ist, eine Maschine abzuschalten, die das gar nicht will. Die AAAI, die American Association for the Advancement of Artificial Intelligence hat das schon vor mehr als fünf Jahren recht unaufgeregt diskutiert

Aber natürlich führt diese Diskussion auch zu der alten Frage, was Intelligenz eigentlich ist. Diese Frage wird ja nun grade, unter dem Eindruck massiver Fortschritte beim maschinellen Lernen neu gestellt: Ist Software, die Sprachen lernen kann, sind Programme, die lernen, Szenen in Bildern und Videos zu beschreiben, eine Vorstufe der Intelligenz?

Wenn ja, sollten wir vielleicht wirklich ein wenig besorgt sein. Denn was diese Programme immer besser können, ist Lernen durch Nachmachen. Sprich: Sie lernt, von menschlichen Vorbildern zu lernen. Um die menschliche Vernunft aber, das zeigen viele Beispiele der letzten Jahre, ist es nicht gut bestellt. Wenn eine echte Künstliche Intelligenz nur menschliche Vorbilder nachahmt, aber dabei schneller ist, cleverer, konsequenter und skrupelloser, dann haben wir allen Grund uns davor zu fürchten.

(wst)