AI Safety Report 2026: Bestehende KI-Sicherheitspraktiken reichen nicht aus
Der kürzlich veröffentlichte AI Safety Report untersucht die Risiken allgemeiner KI. Dem Bericht zufolge sind bisherige Sicherheitsmaßnahmen unzulänglich.
(Bild: International AI Safety Report 2026)
Die Fähigkeiten von General-Purpose-KI, also Modellen und Systemen allgemeiner künstlicher Intelligenz, haben sich im vergangenen Jahr rasant weiterentwickelt. Daraus resultierende Risiken nehmen zu, zumal bestehende Sicherheitspraktiken nicht mithalten können. Zu diesem Schluss kommt der kürzlich veröffentlichte zweite International AI Safety Report.
Der Bericht ist unter Mitarbeit von über 100 unabhängigen Experten und Expertinnen aus mehr als 30 Ländern und unter Federführung des Turing-Preisträgers Yoshua Bengio entstanden. Er untersucht die Leistungsfähigkeit und Risiken von KI-Modellen und -Systemen wie ChatGPT, Gemini, Claude, Mistral etc., die ein breites Aufgabenspektrum abdecken können. Ziel des Berichts ist Bengio zufolge, eine evidenzbasierte Grundlage für wichtige Entscheidungen im Bereich von „general-purpose artificial intelligence“ zu liefern.
Starke regionale Unterschiede
Mittlerweile nutzen 700 Millionen Menschen wöchentlich führende KI-Systeme. Ihre Einführung verlief dem AI Safety Report zufolge somit schneller als die Initiierung früherer Technologien wie PCs. Gleichzeitig attestieren die Wissenschaftler große strukturelle Unterschiede im globalen Vergleich. So nutzen in einigen Ländern bereits über 50 Prozent der Bevölkerung KI-Systeme, in weiten Teilen Afrikas, Asiens und Lateinamerikas liegt die Nutzungsrate jedoch bei unter 10 Prozent.
Allgemeine künstliche Intelligenz hat sich seit dem Bericht aus dem vergangenen Jahr kontinuierlich und rasant verbessert. Vor allem die Bereiche Mathematik, Programmierung, Naturwissenschaften und autonomer Betrieb verzeichnen den Wissenschaftlern zufolge die größten Fortschritte. Verbesserungen der KI-Fähigkeiten konzentrieren sich dabei zunehmend auf „Post-Training“-Optimierung, also Verfeinerungen der Modelle für spezifische Aufgaben nach deren eigentlichem Training mit Datensets.
Gleichzeitig bleibt die Leistungsfähigkeit von Systemen künstlicher allgemeiner Intelligenz insgesamt ungleichmäßig und unzuverlässig: So können universelle KI-Modelle in komplexen Kontexten glänzen, versagen aber bei einfachen Aufgaben wie dem Zählen von Objekten oder dem logischen Denken in physikalischen Räumen. Insgesamt sind Nutzbarkeit und Risiko von general-purpose KI-Systemen nach Auffassung der Wissenschaftler eng miteinander verflochten: Starke Leistungszuwächse verstärken die potenziellen Risiken.
Cyberangriffe, Desinformation und Abhängigkeit von KI
Die Risiken allgemeiner künstlicher Intelligenz unterteilt der International AI Safety Report 2026 in die drei Kategorien Missbrauch, Fehlfunktion und systemische Risiken.
Im Bereich Missbrauch von KI-Systemen heben die Forschenden insbesondere Erpressungen, Cyberangriffe oder die nicht konsensuelle Generierung intimer Inhalte hervor. Als besonders alarmierend betrachten sie die Fähigkeiten der KI, Sicherheitslücken in Software zu erkennen. Auch die Verbreitung von Desinformationen mittels KI-generierter Inhalte bereitet den Wissenschaftlern Sorge. So könne ein KI-generierter Inhalt in experimentellen Umgebungen bereits genauso wirksam sein wie ein von Menschen verfasster.
Trotz Fortschritten produzieren KI-Systeme weiterhin fehlerhaften Code, geben Falschinformationen oder irreführende Ratschläge aus. Besonders autonom agierende Systeme sind nach Einschätzung der Wissenschaftler risikoreich, da sie schadensbegrenzende Eingriffe durch Menschen erschweren. Nichtsdestotrotz hätten sich KI-Systeme im autonomen Betrieb verbessert, wenngleich das Risiko von Kontrollverlusten weiterhin bestehe.
Videos by heise
Als systemische Risiken definiert der Bericht vor allem die Auswirkungen von KI auf den Arbeitsmarkt sowie Gefahren für die menschliche Autonomie. Von der Automatisierung einer Vielzahl kognitiver Aufgaben werden vornehmlich Wissensberufe betroffen sein. Über das Ausmaß derartiger zukünftiger Entwicklungen ist sich die Forschung dem Report zufolge uneinig. Erste Anzeichen deuten allerdings darauf hin, dass die Gesamtbeschäftigung zwar nicht sinkt, die Nachfrage nach Berufseinsteigern in kreativen Berufen aber abnimmt.
Besorgniserregend ist laut dem AI Safety Report außerdem, dass der Einsatz von KI Menschen zunehmend beeinträchtigt, informierte Entscheidungen zu treffen. Erste Erkenntnisse deuten darauf hin, dass die Abhängigkeit von KI-Tools kritisches Denken schwächt und den Effekt des „Automation Bias“ befördert – die Tendenz, den Ergebnissen von KI-Systemen ohne ausreichende Prüfung und trotz Widersprüchen zu vertrauen.
Stärkung der gesellschaftlichen Resilienz zentral
Ein effektives Risikomanagement bleibt laut International AI Safety Report 2026 schwierig: Neue Fähigkeiten von KI sind unvorhersehbar, die Funktionsweise von Modellen unzureichend erforscht und wirtschaftliche Anreize aufseiten der KI-Unternehmen hemmen die Transparenz. Wenngleich sich technische Schutzmaßnahmen von KI-Modellen verbessern, ist es weiterhin möglich, ihre Mechanismen auszuhebeln, etwa via Prompt Injections. Besonders anfällig dafür sind nach Ansicht der Wissenschaftler Open-Weight-Modelle. Diese bieten für die Forschung und Wirtschaft zwar erhebliche Vorteile, ihre Sicherheitsparameter sind aber einfacher zu entfernen.
Positiv ist dem Bericht zufolge, dass sich die Verpflichtungen der Industrie im Bereich der Sicherheits-Governance ausgeweitet hätten. Trotz dieser Selbstverpflichtungen sei jedoch eine Stärkung der gesellschaftlichen Resilienz zentral. So fordert der AI Safety Report eine Festigung kritischer Infrastrukturen, die Entwicklung von Instrumenten zur Erkennung KI-generierter Inhalte und einen Aufbau institutioneller Kapazitäten zur Reaktion auf neuartige Bedrohungen.
(rah)