Microsoft verlangt Notbremsen und Exportkontrolle für Künstliche Intelligenz

In falschen Händen wird KI zur Waffe. Dagegen muss sich die Gesellschaft wappnen, mahnt Microsoft-President Smith: Exportkontrollen, neue Behörden, Transparenz.

In Pocket speichern vorlesen Druckansicht 11 Kommentare lesen
Brad Smith

Brad Smith, President und Vizevorsitzender des Verwaltungsrates Microsofts, ist Jurist.

(Bild: Ben McShane/Web Summit via Sportsfile CC BY 2.0)

Lesezeit: 6 Min.
Inhaltsverzeichnis

Mr. Smith geht nach Washington, um für mehr Gesetze, mehr Regulierung und eine neue Behörde zu plädieren. Geschickt hat ihn sein Arbeitgeber Microsoft, wo Brad Smith als President und damit die Nummer 2 im Konzern fungiert. Microsofts Anliegen: Künstliche Intelligenz (KI) auf sicherem Fundament und mit Leitplanken zu etablieren. Um diesem Anliegen Vorschub zu leisten, hat Herr Smith ein paar Anekdoten, ein Whitepaper und ein Fünf-Punkte-Programm mitgebracht.

Besondere Sorge bereite ihm Desinformation durch Deepfakes, sagte der Jurist bei einer Rede am Donnerstag. Zuvor absolvierte er einen Fernsehauftritt bei NBC. "Die Menschheit hat das Atom gezähmt, um eine Bombe zu bauen, die Menschen zerstören kann; danach hat die Menschheit eruiert, dass sie das Atom auch zähmen kann, um Energie zu produzieren", sagte Smith dort, "Wir sind, OpenAI ist, dabei, Künstliche Intelligenz für gute Zwecke zu entwickeln, aber wir müssen auch darüber nachdenken, wie sie missbraucht werden kann, um Schaden zuzufügen. Wir tun das für einen guten Zweck, wir müssen uns gegen den Missbrauch wappnen. Wir machen (KI) nicht, um in erster Linie eine Waffe zu bauen."

"Wir brauchen Leitplanken. Wir brauchen Leitplanken, die von Firmen gebaut werden, die im Gesetz stehen und die von Regierungen überwacht werden", führte der Manager aus. Als Fundament schwebt Smith das AI Risk Management Framework vor, dass die US-Normungsbehörde NIST (National Institute of Standards and Technology) bereits erarbeitet hat. Bislang ist es allerdings freiwillig. Die Regierung selbst sollte mit gutem Beispiel vorangehen, schlägt Microsoft-President Smith vor: US-Präsident Joe Biden solle per Erlass alle US-Behörden dazu verpflichten, KI nur von Unternehmen einzukaufen, die auf das AI Risk Management Framework setzen. Das hätte Signalwirkung, ist sich Smith sicher.

Zweitens müsse jede KI, die kritische Infrastruktur wie Stromnetze, Wasserversorgung oder Straßenverkehr verwaltet, Notbremsen eingebaut haben. Damit wäre sichergestellt, dass Menschen jederzeit wieder die Kontrolle übernehmen können. Auch sonst müsse Künstliche Intelligenz immer unter menschlicher Kontrolle bleiben, um der Menschheit dienen zu können.

"Menschen müssen das Ergebnis des Computers nehmen, und ihr eigenes Gehirn verwenden. Wir dürfen nicht aufhören, zu denken", warnt Smith. Daher bezeichne Microsoft seine KI-Dienste bewusst als Co-Piloten. "Wir dürften unsere Hirne nicht auf Autopilot schalten. Menschen sollten mit KI schlauer werden und schneller lernen." Ganz generell: "Don't go faster than the speed of thought."

Drittens müsse der Gesetzgeber und idealerweise eine neu zu schaffende Fachbehörde einen umfassenden Rahmen aus Gesetzen und Regularien schaffen – die Leitplanken, von denen Smith so gerne spricht. Dieser Rahmen sei für drei Ebenen zu schaffen: Für Anwendungen, die auf KI-Modellen fußen, die KI-Modelle selbst, und schließlich die Infrastruktur, auf der diese Modelle laufen und trainiert werden.

Speziell auf der erstgenannten Ebene erwartet Smith, dass bestehende Vorschriften meist ausreichen werden. Speziell für besonders leistungsfähige KI-Modelle hingegen werde es sehr wohl neue Gesetze und Regulierung brauchen, idealerweise umgesetzt durch die neue Bundesbehörde. So wie es Behörden für Luftfahrt, Telekommunikation, Medikamente, Nahrungsmittelsicherheit oder Straßenverkehr gebe, sei auch eine KI-Behörde erforderlich.