UN-Sicherheitsrat befasst sich mit Gefahren und Möglichkeiten von KI
Der UN-Sicherheitsrat will Experten und den Generalsekretär zum Potenzial und den Gefahren von KI hören. Damit ist das Thema in der höchsten Politik angekommen.
![Zwei Roboterhände auf einer ergonomischen Tastatur](https://heise.cloudimg.io/width/610/q85.png-lossy-85.webp-lossy-85.foil1/_www-heise-de_/imgs/18/4/2/6/5/8/6/2/un-f46f2ea6b726d9ac.jpeg)
UN-Sicherheitsrat
(Bild: UN, Archivbild)
Der UN-Sicherheitsrat wird sich zum ersten Mal mit den möglichen Gefahren Künstlicher Intelligenz befassen, auf Initiative Großbritanniens wurde für den 18. Juli eine Sitzung angesetzt. Das teilte die britische UN-Botschafterin Barbara Woodward mit, ihr Land hat diesen Monat die Präsidentschaft über das Gremium übernommen. Vorgesehen ist demnach, dass internationale KI-Experten gehört werden. Auch UN-Generalsekretär António Guterres soll sich äußern. Der hatte erst vor wenigen Tagen gefordert, die lauen Warnungen von Experten ernst zu nehmen und sich für die Einrichtung einer internationalen Aufsichtsbehörde ausgesprochen.
Großes Potenzial für die internationale Politik
Dem hat sich Woodward nun angeschlossen. Stellvertretend für ihr Land hat sie sich dafür ausgesprochen, staatenübergreifend daran zu arbeiten, die riesigen Möglichkeiten und Gefahren zu kontrollieren. Dafür sei eine globale Anstrengung nötig. KI habe das Potenzial, UN-Entwicklungsprogrammen zu unterstützen, bei Friedensmissionen zu helfen, Konflikte zu verhindern und die humanitäre Hilfe zu verbessern. Möglich sei, dass dank Künstlicher Intelligenz die Schwere zwischen den entwickelten und den Entwicklungsländern geschlossen wird. Gleichzeitig müssten die Risiken aber angesprochen werden.
Mit der Ankündigung aus New York ist das Thema KI nun im höchsten Gremium der internationalen Politik angekommen. Das reagiert auch auf die teils dramatischen Warnungen aus der Branche selbst vor den Risiken. Erst vor einem Monat haben hunderte Verantwortliche aus der KI-Industrie und -Forschung ein Statement unterzeichnet, das von einer Gefahr für die Menschheit an sich spricht. "Die Verringerung des Risikos, dass uns KI auslöscht, sollte weltweit mit der Priorität angegangen werden, die anderen Risiken von gesellschaftlicher Bedeutung wie Pandemien und Atomkrieg entgegengebracht wird", lautet die vollständige Stellungnahme. Worauf genau sie sich beziehen, hatten sie aber nicht ausgeführt.
Lesen Sie auch
KI Update: neuer Podcast von heise online
(mho)