OpenAI-Mitbegründer will "sichere Superintelligenz" schaffen

Der OpenAI-Mitgründer Ilya Sutskever hat sein Herzensprojekt offenbart: Er will mit anderen namhaften Mitstreitern eine sichere Superintelligenz schaffen.

In Pocket speichern vorlesen Druckansicht 18 Kommentare lesen
Ai,(artificial,Intelligence),Concept.,Contents,Concept.,Social,Networking,Service.,Streaming

(Bild: metamorworks / Shutterstock.com)

Lesezeit: 3 Min.

Der OpenAI-Mitbegründer Ilya Sutskever, der das Unternehmen für Künstliche Intelligenz (KI) OpenAI verlassen hatte, will in seinem neuen Unternehmen Safe Superintelligence Inc. eine sichere Superintelligenz (Safe Superintelligence – SSI) schaffen. Viel hat das neu gegründete Start-up noch nicht vorzuweisen.

Eine einfache Website mit einem Hinweis auf die Safe Superintelligence, Social-Media-Accounts und ein kleines Team sind alles, was bisher auf das Projekt von Sutskever hindeuten. "Superintelligenz ist zum Greifen nah. Der Aufbau einer sicheren Superintelligenz (SSI) ist das wichtigste technische Problem unserer Zeit", ist auf der Webseite zu lesen. Um das Thema Sicherheit dreht sich bei OpenAI fortwährend Streit. Wegen unterschiedlicher Ansichten sind Sutskever, aber auch der Leiter des Sicherheitsteams, Jan Leike, aus dem Unternehmen auf eigenen Wunsch ausgeschieden.

Dem Ziel einer sicheren AGI will sich zu Beginn ein kleines Team von etwa drei Personen widmen. Neben Sutskever sind das Daniel Groß, ehemaliger KI-Chef von Apple und Daniel Levy, ein Ex-Mitarbeiter von ChatGPT-Schöpfer OpenAI. Die drei haben die Mitteilung auf der Webseite unterzeichnet. Nach Angaben des Unternehmens sollen noch weitere Mitarbeiter angeheuert werden, um "das erste SSI-Labor der Welt" aufzubauen. Die "besten Ingenieure und Forscher der Welt" sollen ein "schlankes, schlagkräftiges Team" bilden, heißt es weiter. Arbeiten sollen die Mitarbeiter an den Standorten Palo Alto im US-Bundesstaat Kalifornien sowie im israelischen Tel Aviv.

Sutskever und seine Mitstreiter beabsichtigen, eine Superintelligenz zu schaffen, von der keine Gefahr ausgeht. Das sei das alleinige Ziel des Unternehmens. Ein anderes Produkt soll es nicht geben. Die Sicherheit der Superintelligenz soll dadurch gewährleistet sein, dass ein besonderer Fokus darauf bei der Entwicklung gelegt wird. Sicherheit stehe an erster Stelle, betonen die Unterzeichner auf der Webseite. Dabei wolle man sich keinem kommerziellen Druck unterwerfen. Sicherheit stehe über Produktzyklen.

Details über die SSI geben Sutskever und seine Mitstreiter nicht. Was sie leistet und wann sie möglicherweise kommen wird, ist ungewiss. Genauso unklar ist auch die Finanzierung. In der Ankündigung heißt es lediglich, dass Investoren vorhanden sind. Wer das ist und wie die finanzielle Ausstattung des KI-Unternehmens aussieht, dazu äußerte sich das junge Start-up nicht.

Sutskever gilt weltweit als einer der führenden Köpfe hinsichtlich Künstlicher Intelligenz. Der kanadische Informatiker hatte OpenAI mitgegründet und war maßgeblich an der Entwicklung von ChatGPT beteiligt. Sutskever verließ OpenAI nach zehn Jahren im Mai 2024. Er war aus dem Unternehmen ausgeschieden, weil er befürchtete, dass kommerzielle Interessen über der Sicherheit bei der Weiterentwicklung von ChatGPT stehen könnten. Bereits im Mai kündigte Sutskever ein Projekt an, dass ihm am Herzen liegt.

(olb)