Gegen die Apokalypse: Wissenschaftler fordern "Kill-Switch" für KI

Ein Forscherteam empfiehlt, Künstliche Intelligenz über Hardware wie Chips zu regulieren und diese mit einem "Notausschalter" zu versehen. Es gebe aber Risiken.

In Pocket speichern vorlesen Druckansicht 144 Kommentare lesen
ChatGPT Symbolbild

(Bild: SomYuZu / Shutterstock.com)

Lesezeit: 6 Min.
Inhaltsverzeichnis

Künstliche Intelligenz (KI) weckt bei vielen Menschen Ängste vor einem Amok laufenden Skynet mit Killer-Robotern wie dem Terminator. Ein Team von Wissenschaftlern der Universitäten Cambridge, Harvard und Toronto sowie des ChatGPT-Herstellers OpenAI hat daher nach Wegen gesucht, um die vielfach befürchtete technikgetriebene Apokalypse zu verhindern und KI über Bemühungen wie den europäischen AI Act hinaus fundamental zu regulieren. Sie empfehlen in einem am Mittwoch veröffentlichten, noch nicht von externen Forschern gegengelesenen Preprint-Artikel, dabei an der Hardware anzusetzen.

Hochleistungsfähige Chips seien fundamental für das Training von neuronalen Netzwerken und Systemen für generative, allgemein einsetzbare KI, heben die Autoren der Abhandlung hervor. Es gelte, die Verkäufe solcher Halbleiter weltweit zu verfolgen und mit einer Art "Kill-Switch" zum Abstellen aus der Ferne zu versehen.

Konkret schlagen die Wissenschaftler vor, ein globales Register für Verkäufe von KI-Chips einzuführen. Damit sollen diese wesentlichen Bauteile über ihren gesamten Lebenszyklus hinweg verfolgt werden können, auch wenn sie aus ihrem Fertigungsland exportiert werden. Ein solches Verzeichnis könnte eine eindeutige Kennung (ID) in jeden entsprechenden Halbleiter integrieren. Das sehen die Experten zunächst als Beitrag zur Bekämpfung des Schmuggels solcher Komponenten von Hochleistungsrechnern. Doch dabei machen sie nicht halt, sondern bringen "Notausschalter" ins Spiel. Ein solcher könnte ihnen zufolge in das Silizium integriert werden, um den Einsatz der Chips in "böswilligen Anwendungen" zu verhindern.

"Spezialisierte Co-Prozessoren, die auf dem Chip sitzen, könnten über ein kryptografisch signiertes digitales 'Zertifikat' verfügen", erläutert das Team. Die integrierte Richtlinie für zulässige Einsatzzwecke ließe sich dann "aus der Ferne über Firmware-Updates" bereitstellen. Die Autorisierung für die Chip-Lizenz könnte regelmäßig erneuert werden durch eine zuständige Regulierungsbehörde, der Chiphersteller die Vorgaben in die Technik implementieren und so umsetzen.

"Eine abgelaufene oder unzulässige Lizenz würde dazu führen, dass der Chip nicht funktioniert oder seine Leistung verringert", heißt es in dem Papier. Theoretisch könnte es dieser Ansatz Aufsichtsbehörden ermöglichen, "schneller auf den Missbrauch sensibler Technologien zu reagieren, indem sie den Zugriff auf Chips aus der Ferne sperren", berichtet das Online-Magazin The Register über die Initiative.

Die Autoren sind sich aber bewusst, dass ein solches Vorgehen auch Gefahren birgt. So könnte ein Kill-Switch bei falscher Implementierung etwa zum Angriffsziel für Cyberkriminelle werden oder von Diktatoren missbraucht werden, um für Gesellschaften wichtige KI-Funktionen mehr oder weniger lahmzulegen. Die Forscher bringen daher als zusätzliche Sicherung ins Spiel, dass mehrere Parteien potenziell riskante KI-Trainingsaufgaben absegnen, bevor sie in großem Maßstab eingesetzt werden können. "Atomwaffen nutzen ähnliche Mechanismen" um einen ungerechtfertigten oder unabsichtlichen Einsatz zu verhindern, führen sie aus. Auch dabei sollen Sicherheitsschlösser verhindern, dass eine Person nicht unkontrolliert vorgehen und einen Erstschlag ausführen kann.

Übertragen auf KI könnte das den Wissenschaftler zufolge heißen: Eine Einzelperson oder ein Unternehmen müsste, wenn es ein Modell über einem bestimmten Schwellenwert in der Cloud trainieren will, zunächst eine Genehmigung dafür einholen. Aber auch dies könnte nach hinten losgehen, indem es die Entwicklung wünschenswerter KI-Innovationen verlangsamt oder gar stoppt. Anders als bei Nuklearwaffen diene die Entwicklung von KI nicht immer nur einem Ziel und sei keineswegs generell schädlich.

Generell loten die Verfasser so auch Möglichkeiten der Umverteilung von KI-Ressourcen zum Wohle der Gesellschaft als Ganzes aus: Politische Entscheidungsträger könnten laut dem "Zuteilungskonzept" zusammenkommen, um KI-Rechenkraft für bestimmte Gruppen zugänglicher zu machen, bei denen es unwahrscheinlich ist, dass sie sie für böse Zwecke nutzen.

Das Team geht auch auf bestehende Regulierungsmittel wie Vorgaben zum Export von Gütern, Stoffen, Software und anderen Technologien ein, die sowohl militärisch als auch zivil genutzt werden können ("Dual Use"). Das EU-Parlament beschloss dazu etwa 2021 eine Richtlinie, die auch für Produkte wie Staatstrojaner oder Systeme zur biometrischen Gesichtserkennung gilt, mit denen Personen durch das Sammeln größere Datenmengen verdeckt überwacht werden können. Voriges Jahr legte zudem US-Präsident Joe Biden eine Verordnung vor, um Unternehmen zu identifizieren, die große Dual-Use-KI-Modelle entwickeln. Erfasst werden sollen damit auch die Infrastrukturanbieter, die in der Lage sind, diese zu trainieren.

Das US-Handelsministerium will nationale Cloudanbieter ferner dazu verpflichten, strengere Richtlinien zur Überprüfung ihrer Kunden einzuführen. Dies soll verhindern, dass betroffene Personen oder Länder Exportbeschränkungen umgehen. Die Wissenschaftler weisen darauf hin, dass die damit verknüpfte Transparenz wertvoll ist und ein weiteres Wettrüsten stoppen könnte. Die Einhaltung dieser Meldepflichten hätte aber den Nebenzweck, die Privatsphäre der Kunden zu verletzen und zum Verlust vertraulicher Daten beitragen. Verschärft hat das US-Handelsressort bereits die Hürden für den Export etwa von Grafikbeschleunigern und anderen für die KI-Entwicklung wichtigen Bauteilen. Solche Auflagen können in der Regel aber vergleichsweise einfach umgangen werden.

Ganz neu ist der Ruf nach einem "Kill-Schalter" nicht. Das EU-Parlament etwa macht sich schon 2017 dafür stark, dass Entwickler in das Maschinendesign für Roboter "offensichtliche Ausklinkmechanismen" in Form eines Notausschalters integrieren sollten. 2011 bezeichnete es der Medienwissenschaftler Evgeny Morozov als Option, dass Hacker aus der Ferne einen Kill-Switch für Überwachungstechnik selbst betätigen und diese so lahmlegen könnten. Auch er hatte dabei aber Bedenken vor den Folgen, die "Waffen" des cyber-industriellen Komplexes aufd diesem Weg einfach umzudrehen.

(bme)