OpenAI: Whistleblower wollen Verträge von Börsenaufsicht prüfen lassen
Bei OpenAI läuft es intern weiterhin nicht rund. Nun sollen Mitarbeiter die Börsenaufsicht gebeten haben, Arbeitsverträge zu prüfen.
Mehrere Whistleblower haben die US-Börsenaufsicht (SEC) angeschrieben und hoffen darauf, dass diese OpenAIs Arbeitsverträge prüft. Konkret geht es um die sehr restriktiven Geheimhaltungsvereinbarungen des Unternehmens. Diese würden nämlich auch gelten, wenn es um Risiken ginge. Rund um das Thema Sicherheit herrschen bei OpenAI ganz offensichtlich Unstimmigkeiten. Rauswürfe, Kündigungen und öffentliche Kritik reißen nicht ab.
Das Unternehmen soll seinen Mitarbeitern untersagen, die Aufsichtsbehörden vor den schwerwiegenden Risiken zu warnen, die seine Technologie für die Menschheit darstellen könnten. Das Verbot sei rechtswidrig, meinen die Unterzeichner. Wendeten sich die Mitarbeiter an Bundesbehörden, würden sie auf den Schutz für Whistleblower verzichten, den es in den USA für solche Fälle gibt. Zudem sind sie vertraglich verpflichtet, eine Genehmigung von OpenAI einzuholen, bevor sie sich an eine Bundesbehörde wenden. Das verstoße gegen das Bundesgesetz zum Schutz von Whistleblowern.
KI-Update abonnieren
Werktägliches Update zu den wichtigsten KI-Entwicklungen, freitags immer mit Deep Dive.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
In der Kritik stehen auch die Beschäftigungs- und Abfindungsvereinbarungen. Sieben Seiten lang ist das Schreiben, das der Washington Post vorliegt und bereits Anfang Juli an die US-Behörde übergeben wurde. Die Unterzeichner fordern die SEC auf, schnell zu handeln, Strafen gegen OpenAI zu verhängen und die Mitarbeiter über ihre Rechte zu informieren.
Eine Sprecherin von OpenAI hat der Washington Post gesagt, man wolle die Rechte der Mitarbeiter schützen. "Darüber hinaus glauben wir, dass eine rigorose Debatte über diese Technologie unerlässlich ist, und haben bereits wichtige Änderungen an unserem Austrittsprozess vorgenommen, um nicht verunglimpfende Klauseln zu entfernen." Verunglimpfung meint die Weitergabe von Informationen.
OpenAI und die Sicherheitsbedenken
Die Querelen um die Sicherheit und die Ausrichtung des ursprünglich als non-profit gestarteten Unternehmens sind seit Sam Altmans kurzfristigem Rauswurf bekannt. Dass es brodelt, haben seither mehrere ehemalige Mitarbeiter bestätigt. Sicherheitsforscher Jan Leike und Mitgründer Ilya Sutskever haben OpenAI auf eigenen Wunsch verlassen. Eine ehemalige Vorständin spricht von einem toxischen Arbeitsklima. Helen Toner sagt auch, Sam Altman selbst habe Informationen zurückgehalten und Entwicklungen dem Vorstand gegenüber falsch dargestellt.
Zuletzt gab es Vorwürfe, die Sicherheitsprüfung von GPT-4o, dem sogenannten Omnimodell, habe nur eine Woche gedauert. Das berichtet ebenfalls die Washington Post. Das Sicherheitsteam soll stark unter Druck gesetzt worden sein, einen von der Leitung festgelegten Termin einzuhalten. Laut dem Insider feierte man intern das neue Modell, obwohl die Tests noch nicht abgeschlossen waren. Eine OpenAI-Sprecherin sagte, es sei zwar stressig für die Mitarbeiter gewesen, die Sicherheitsprozesse habe man jedoch nicht abgekürzt.
Unterdessen wurde bereits ein Sicherheitsvorfall bekannt. Angreifer hatten Chats mitlesen können.
Lesen Sie auch
OpenAIs neues Modell o3 soll Menschen in Reasoning-Benchmarks übertreffen
KI-Update kompakt: ChatGPT, Stromversorgung, Meta Apollo, Nvidia
ChatGPT kann telefonieren – in Deutschland funktioniert nur Chat per WhatsApp
KI und die DSGVO: EU-Datenschützer einigen sich auf gemeinsame Linie
KI-Update kompakt: FACTS Grounding, YouTube, Agentforce 2.0, SwagBot
(emw)