Von Palantir zu OpenAI: Ex-CISO wechselt ins KI-Sicherheitsteam

Dane Stuckey wechselt von Palantir zu OpenAI. Der frühere Chief Information Security Officer wird nun für die KI-Sicherheit zuständig sein.

In Pocket speichern vorlesen Druckansicht
Das Logo von OpenAI an der Fassade des Bürogebäudes in San Francisco.

(Bild: Shutterstock/ioda)

Lesezeit: 2 Min.

Der bisherige Chief Information Security Officer (CISO) von Palantir wechselt zu OpenAI. Auch dort wird Dane Stuckey für die Sicherheit zuständig sein – dann eben speziell für die Sicherheit von KI-Modellen und Systemen. Head of Security bei OpenAI bleibt Matt Knight. Stuckey bekommt auch im neuen Job den Titel CISO.

Den Wechsel hat Stuckey bei X bekannt gegeben. Dort schreibt er: "Es ist von entscheidender Bedeutung, dass wir die höchsten Standards für Compliance, Vertrauen und Sicherheit erfüllen, um Hunderte Millionen von Nutzern unserer Produkte zu schützen, demokratische Institutionen in die Lage zu versetzen, den größtmöglichen Nutzen aus diesen Technologien zu ziehen, und die Entwicklung sicherer KI für die Welt voranzutreiben." Ganz im Einklang mit seinem neuen Arbeitgeber betont Stuckey auch, dass KI allen Menschen zugutekommen würde. OpenAI beruft sich immer wieder auf dieses Versprechen, wenn es etwa darum geht, die Nutzung urheberrechtlich geschützter Werke für das KI-Training zu legitimieren oder um Regulierungen abzumildern.

Durch Stuckey kommt neben der Expertise im Bereich KI und Sicherheit auch Erfahrung mit Behörden ins Unternehmen. Palantir unterhält zahlreiche Aufträge der US-Regierung, aber auch anderer Staaten. OpenAI wird nachgesagt, Ambitionen in diesem Umfeld zu haben. Erst im Januar hatte das KI-Unternehmen eine Klausel aus ihren Nutzungsbedingungen gestrichen, die den Einsatz für militärische Zwecke verbot. Seither arbeitet OpenAI unter anderem mit dem Pentagon an mehreren Projekten. Im relativ neu geschaffenen Kontrollgremium, das unabhängig die Sicherheit der Produkte überwachen soll, sitzt zudem Paul Nakasone, ein ehemaliger General der National Security Agency.

Es gibt zudem Warnungen, die chinesische Regierung könne versuchen, die Technologien zu kopieren, es drohten Cyberangriffe. Der ehemalige OpenAI-Mitarbeiter Leopold Aschenbrenner hat in einem Essay gewarnt, es habe bereits einen Vorfall gegeben. Er erwartet allerdings auch einen "totalen KI-Krieg" zwischen den USA und China. OpenAI gab in der Folge zu, es habe in diesem Jahr bereits mehr als 20 Angriffe, teilweise durch staatliche geförderte Hacker, gegeben.

(emw)