UN-Sicherheitsrat befasst sich mit Gefahren und Möglichkeiten von KI

Der UN-Sicherheitsrat will Experten und den Generalsekretär zum Potenzial und den Gefahren von KI hören. Damit ist das Thema in der höchsten Politik angekommen.

In Pocket speichern vorlesen Druckansicht
Zwei Roboterhände auf einer ergonomischen Tastatur

UN-Sicherheitsrat

(Bild: UN, Archivbild)

Lesezeit: 2 Min.

Der UN-Sicherheitsrat wird sich zum ersten Mal mit den möglichen Gefahren Künstlicher Intelligenz befassen, auf Initiative Großbritanniens wurde für den 18. Juli eine Sitzung angesetzt. Das teilte die britische UN-Botschafterin Barbara Woodward mit, ihr Land hat diesen Monat die Präsidentschaft über das Gremium übernommen. Vorgesehen ist demnach, dass internationale KI-Experten gehört werden. Auch UN-Generalsekretär António Guterres soll sich äußern. Der hatte erst vor wenigen Tagen gefordert, die lauen Warnungen von Experten ernst zu nehmen und sich für die Einrichtung einer internationalen Aufsichtsbehörde ausgesprochen.

Dem hat sich Woodward nun angeschlossen. Stellvertretend für ihr Land hat sie sich dafür ausgesprochen, staatenübergreifend daran zu arbeiten, die riesigen Möglichkeiten und Gefahren zu kontrollieren. Dafür sei eine globale Anstrengung nötig. KI habe das Potenzial, UN-Entwicklungsprogrammen zu unterstützen, bei Friedensmissionen zu helfen, Konflikte zu verhindern und die humanitäre Hilfe zu verbessern. Möglich sei, dass dank Künstlicher Intelligenz die Schwere zwischen den entwickelten und den Entwicklungsländern geschlossen wird. Gleichzeitig müssten die Risiken aber angesprochen werden.

Mit der Ankündigung aus New York ist das Thema KI nun im höchsten Gremium der internationalen Politik angekommen. Das reagiert auch auf die teils dramatischen Warnungen aus der Branche selbst vor den Risiken. Erst vor einem Monat haben hunderte Verantwortliche aus der KI-Industrie und -Forschung ein Statement unterzeichnet, das von einer Gefahr für die Menschheit an sich spricht. "Die Verringerung des Risikos, dass uns KI auslöscht, sollte weltweit mit der Priorität angegangen werden, die anderen Risiken von gesellschaftlicher Bedeutung wie Pandemien und Atomkrieg entgegengebracht wird", lautet die vollständige Stellungnahme. Worauf genau sie sich beziehen, hatten sie aber nicht ausgeführt.

(mho)