Angreifer konnten bei OpenAI interne Chats mitlesen
Jemand dringt ins Kommunikationssystem ein, Mitarbeiter warnen vor Spionage, OpenAI geht von einer Privatperson als Angreifer aus.
Bereits Anfang des Jahres soll es einen Angriff auf OpenAI gegeben haben. Dabei habe sich jemand Zugang zum internen Nachrichtensystem des Unternehmens verschafft und darüber Details zu den Technologien gestohlen. Bekannt geworden ist der Fall erst jetzt. OpenAI soll bisher davon ausgegangen sein, dass der Angriff keine Gefahr darstellte – vor allem nicht für die nationale Sicherheit. Über den Vorfall hat die New York Times berichtet. Das passt aber auch zu den Aussagen von Leopold Aschenbrenner, einem ehemaligen OpenAI-Mitarbeiter, der in einem Essay vor der Spionage durch die Kommunistische Partei Chinas warnt.
Laut der New York Times soll der Angreifer einen Weg in interne Chats gefunden haben, in denen Mitarbeiter über ihre aktuellsten technologischen Fortschritte gesprochen haben. Zugriff auf die tatsächliche Technologie gab es nicht. Auch seien keine Daten von Nutzerinnen und Nutzern oder Partnern abgeflossen. OpenAI ist laut Quellen der New York Times davon ausgegangen, dass es sich um eine Privatperson gehandelt hatte. Es soll jedoch einige Mitarbeiter gegeben haben, die sich zumindest sorgten, China könne ebenfalls Wege finden, Informationen zu stehlen – und dadurch die nationale Sicherheit gefährden.
KI-Update abonnieren
Werktägliches Update zu den wichtigsten KI-Entwicklungen, freitags immer mit Deep Dive.​
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
Querelen um die Sicherheit bei OpenAI
Zu diesen Kollegen dürfte Aschenbrenner gehört haben. Er sagt, dass er vor China gewarnt habe und das mit ein Grund gewesen sei, weshalb er bei dem KI-Unternehmen gekündigt wurde. OpenAI bestreitet dies, es habe andere Gründe gegeben. Aschenbrenner sieht laut seinem Essay sogar eine große Gefahr von dem "totalen Krieg" zwischen den USA und China. KI, meint er, werde bereits in zwei Jahren schlauer sein als die meisten College-Absolventen, und gegen Ende des Jahrzehnts hätten wir eine Artificial General Intelligence. In seiner Vorstellung sorgen Roboter für ausreichend Daten und das meiste Gas der Welt könne für den Betrieb von KI genutzt werden.
Weitere Mitarbeiter von OpenAI hatten erst kürzlich das Unternehmen freiwillig verlassen. Dazu gehörten der Mitgründer, Ilya Sutskever, und der Sicherheitsforscher Jan Leike. Die Aufgabe der beiden war unter anderem, ein Sicherheitskonzept unter ethischen und moralischen Gesichtspunkten zu entwickeln. Das Ziel: die Kontrolle einer "Superintelligenz", deren Ziele nicht mit menschlichen Werten übereinstimmen.
Konkrete Informationen, wie der Angreifer es in die Kommunikationssysteme geschafft hat oder auch nur, um welche Systeme es sich handelt, gibt es nicht. Unklar bleibt auch, wie lange er mitlesen konnte und woher OpenAI weiĂź, dass es sich um eine Privatperson gehandelt hat.
(emw)