OpenAI-Chef: KI braucht dringend Regulierung
OpenAI-CEO Sam Altman sieht die Superintelligenz als Gefahr und schlägt internationale Überwachung vor. Das ist auch Marketing.
(Bild: jamesonwu1972/Shutterstock.com)
- Eva-Maria Weiß
- mit Material der dpa
Vor dem Hintergrund von Warnungen vor einer sogenannten Super-KI, die für die Menschheit zur Gefahr werden könnte, hat OpenAI-Chef Sam Altman erneut die Bildung einer weltweiten Aufsichtsbehörde nach dem Vorbild der Atomenergiebehörde (IAEA) angeregt. Es sei offensichtlich, dass man dringend Regeln und Sicherheitsmaßnahmen brauche, sagte er beim KI-Gipfel in Neu-Delhi.
In den vergangenen Monaten waren Warnungen vor einer möglicherweise zerstörerischen Kraft von KI wieder lauter geworden, sollte die Technologie sich in immer schnelleren Schritten auch durch ihre eigene Einbindung in die Programmierung verbessern und zu einer Art Superintelligenz werden. Kritiker bezweifeln allerdings noch immer, dass es sehr bald eine solche Intelligenz geben wird.
Nur noch ein paar Jahre bis zur Super-KI?
Man sei vielleicht nur ein paar Jahre von frühen Versionen einer solchen Intelligenz entfernt, sagte Altman. „Wenn wir mit unserer Einschätzung richtig liegen, könnte Ende 2028 ein größerer Teil der intellektuellen Kapazität der Welt innerhalb von Rechenzentren liegen als außerhalb.“ Dies solle ernsthaft in den Blick genommen werden. Er machte auch deutlich, dass KI den Arbeitsmarkt grundlegend verändern werde.
Videos by heise
Altman wies auf weitere Gefahren und Ungewissheiten hin: eine mögliche Super-KI in den Händen von Diktatoren, ein Missbrauch als Biowaffe mit der Schaffung ganz neuer Krankheitserreger oder neue Arten von Kriegen. Es müsse eine gesamtgesellschaftliche Debatte geben, „bevor wir alle überrascht werden“. Um KI zu missbrauchen bedarf es freilich nicht unbedingt einer Superintelligenz. Das geht auch mit weniger ausgereiften Systemen, die bereits die Forderung nach einer Aufsichtsbehörde rechtfertigen.
Superintelligenz ist fraglich
Gleichwohl ist Altman selbst daran interessiert, KI möglichst schnell und auch mit möglichst wenig Leitplanken auf den Markt zu bringen. Sicherheit ist bei seinem Unternehmen nachrangig. Das soll zu diversen Zerwürfnissen innerhalb von OpenAI geführt haben – und auch Abgängen.
Hinter den Warnungen vor einer Superintelligenz steckt zudem auch immer ein Stück weit Marketinginteresse. Ein möglichst großes Drohszenario zeugt schließlich auch von einer besonders leistungsfähigen Technik. Mit den immer wieder betonten Risiken von KI steigert OpenAI also quasi auch den eigenen Wert. Das soll schlussendlich auch Investoren und Beobachter überzeugen.
Ob wir wirklich so nah an einer Superintelligenz sind, bezweifeln mindestens ebenso viele KI-Experten, wie es Sorgen vor dieser gibt. So sagen beispielsweise Turingpreisträger Yann LeCun oder auch der Neurowissenschaftler Gary Marcus, dass Große Sprachmodelle, also die derzeitigen KI-Modelle, gar nicht dazu geeignet sind, eine wirklich weitreichende Intelligenz zu entwickeln. Sprache als Grundlage sei viel zu eingeschränkt.
(afl)