MIT Technology Review 6/2020
S. 36
Horizonte
Essay

Letzte Warnung

Wie erkennen wir rechtzeitig, ob eine bösartige KI außer Kontrolle geraten könnte? Technische Durchbrüche könnten eine Frühwarnfunktion übernehmen.

Von Oren Etzioni

Werden wir eines Morgens verblüfft aufwachen und feststellen, dass eine supermächtige KI gerade dabei ist, die Weltherrschaft an sich zu reißen? Angesehene Autoren wie Nick Bostrom oder Max Tegmark warnen in Büchern wie „Superintelligence“ oder „Leben 3.0“ vor dieser Gefahr und argumentieren, dass die unkontrollierte Entwicklung von künstlicher Intelligenz ein „existenzielles Risiko“ für die Menschheit darstellt.

Über diese Frage kann man endlos spekulieren. Theo­retiker wie Nick Bostrom argumentieren, dass wir für Ereignisse mit sehr geringer Wahrscheinlichkeit, aber hoher Konsequenz planen müssen, als wären sie unvermeidlich. Denn die Folgen, so sagen sie, wären so tiefgreifend, dass unsere Schätzungen über die Eintrittswahrscheinlichkeit dieser Ereignisse nicht wichtig sind. Das ist ein dummes Argument: Mit ihm lässt sich so ziemlich alles rechtfertigen. Es wäre besser, konkrete Fragen zu stellen: Was würde uns alarmieren, wenn diese Superintelligenz tatsächlich vor der Tür steht?