Anthropics gefährliche KI Mythos: Unbefugte wohl mit Zugriff seit dem ersten Tag

Anthropics leistungsfähigste KI soll so gefährlich sein, dass nur ausgewählte Firmen Zugriff haben. Unbekannte sollen das laut eines Berichts umgangen haben.

vorlesen Druckansicht 37 Kommentare lesen
Eine Hand mit einer digitalen roten Weltkugel und lauter Warnzeichen

(Bild: tete_escape/Shutterstock.com)

Lesezeit: 3 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Eine Reihe von Personen hat sich angeblich unbemerkt Zugang zu Anthropics leistungsfähigen und regelrecht gefährlichen KI-Modell Claude Mythos Preview verschafft, ohne dass die KI-Firma davon etwas bemerkt hat. Das berichtet die Finanznachrichtenagentur Bloomberg, die sich die Benutzung des Werkzeugs demnach hat zeigen lassen. Die Unbekannten tauschen sich demnach in einem privaten Kanal auf Discord aus, es handle sich um Personen, die sich auch vorher schon der Suche nach nicht veröffentlichten KI-Modellen gewidmet haben. Mythos sei von ihnen nicht für Aufgaben mit Bezug auf Cybersicherheit genutzt worden, stattdessen würde sie testen, wie sich das KI-Modell bei harmlosen Aufgaben schlägt – die Rede ist beispielsweise vom Bauen einer Website.

Anthropic hat Mythos vor zwei Wochen vorgestellt und dazu erklärt, dass das Modell so gefährlich sei, dass es nur Firmen zur Verfügung gestellt wird, die an IT-Sicherheit arbeiten. Das KI-Modell habe schon tausende hochriskante Zero-Day-Lücken identifiziert, darunter auch welche in allen großen Betriebssystemen und jedem Internetbrowser. Gleichzeitig sei die KI-Technik deutlich häufiger in der Lage, einen funktionierenden Exploit für solche Lücken zu entwickeln, teilweise würden dafür sogar mehrere in Verbindung miteinander ausgenutzt. Im Rahmen von „Project Glasswing“ soll die Branche nun daran arbeiten, damit gefundene Lücken abzudichten, bevor andere KI-Modelle zur Verfügung stehen, mit denen auch Kriminelle viel leichter Lücken finden und vor allem auch ausnutzen können.

Der unbefugte Zugriff auf Mythos wurde laut Bloomberg bereits an dem Tag erlangt, an dem Anthropic das KI-Werkzeug vorgestellt hat. Dazu habe sich die Gruppe verschiedener Taktiken bedient, so habe eine Person als Angestellter eines Dienstleisters Zugang zu Anthropics Werkzeugen. Vorher habe die Gruppe eine „fundierte Vermutung“ über die Internetadresse von Mythos angestellt – basierend auf anderen URLs von Anthropic. Die Unbekannten hätten Mythos seitdem regelmäßig benutzt, so wie andere KI-Modelle vorher. Dabei gehe es ihnen aber nicht darum, „damit Chaos zu stiften“. Bloomberg beruft sich bei dem Bericht durchgehend auf eine der Personen, die aber anonym gehalten wird.

Videos by heise

Anthropic hat demnach zugesichert, die Behauptung prüfen zu wollen, aber gleichzeitig die Tragweite des Zugriffs heruntergespielt. Es gebe keine Hinweise, dass der Zugriff über die Umgebung eines Drittanbieters hinausgegangen sei oder Auswirkungen auf eigene Systeme habe. Dabei legt die Entdeckung nahe, wie schwer es der Firma fallen dürfte, den Zugriff auf Mythos unter Verschluss zu halten. Das KI-Modell wurde zur Vorstellung als so leistungsfähig beschrieben, dass nicht nur die IT-Sicherheitsindustrie aufgeschreckt wurde. In immer mehr Ländern beschäftigen sich Regierungen mit der Bedeutung des neuen Werkzeugs, und vor allem in der Finanzindustrie wurden Prüfungen angeordnet. Sollte Mythos in falsche Hände fallen, könnten die Folgen für die Cybersicherheit verheerend sein.

(mho)