ChatGPT Agent: Altman warnt vor der Nutzung
ChatGPT Agent auf die Mails zugreifen lassen? Keine gute Idee, schreibt Sam Altman. Sicherheitsmaßnahmen reichen nicht aus.
(Bild: CHUAN CHUAN/Shutterstock.com)
Der ChatGPT Agent kann umfangreiche Aufgaben übernehmen. Umfangreich einsetzen sollte man ihn laut Sam Altman aber vorsichtshalber nicht. Zu groß seien die Gefahren.
Bei ChatGPT Agent handelt es um eine Art Kombination aus dem bisherigen Agenten-Modell Operator, den Fähigkeiten zur Informationsverarbeitung aus Deep Research und den Sprachkenntnissen von ChatGPT. Vereint sollen sie "eine neue Stufe der Leistungsfähigkeit von KI-Systemen" darstellen sowie "bemerkenswerte, komplexe Aufgaben" erledigen können, schreibt Altman bei X. Doch die Warnung folgt auf dem Fuß.
Videos by heise
Es sei "eine Chance, die Zukunft auszuprobieren, aber nicht als etwas, das ich für hochrangige Zwecke oder mit vielen persönlichen Informationen verwenden würde, bis wir die Möglichkeit haben, es in freier Wildbahn zu untersuchen und zu verbessern." Böswillige Akteure könnten versuchen, den Agenten auszutricksen, fährt Altman fort. Man solle ihnen deshalb nur den Zugang gewähren, den die Agenten zwingend benötigen, um eine Aufgabe zu erledigen – etwa Zugang zum Kalender, nicht jedoch die Erlaubnis, Kleidung direkt zu kaufen.
KI-Modelle sind anfällig für Angriffe
Konkret warnt Altman sogar davor, dass ChatGPT Agent brisante Informationen verraten könnte, wenn man ihm freien Zugang zu den eigenen E-Mails gibt. Jemand könnte mittels einer bösartigen Mail den Agenten beauftragen, Daten preiszugeben. Das ließe sich einfach im Textfeld als Prompt schreiben, es sind keine weiteren Kenntnisse dafür nötig. Ob der Agent wirklich so leicht auszutricksen ist, ist unklar.
Jailbreaks und Injections sind generell ein großes Problem für KI-Modelle. Sie sind anfällig für vergiftete Daten, versteckte Anweisungen und absichtlich gestreute Falschinformationen. OpenAI betont, Maßnahmen zur Sicherheit getroffen zu haben. Doch offenbar ist deren Wirksamkeit nicht sicher.
Was bringt also ein KI-Agent, der nicht selbstständig handeln darf? Altman meint, er könne etwa helfen, ein Outfit für eine Hochzeit zu kaufen, die Fahrt zu dieser zu buchen und ein Geschenk auszusuchen. Nur eben mit der menschlichen Aufsicht. Ebenso schreibt Altman davon, dass ChatGPT Agent Daten analysieren und eine Präsentation erstellen könne. Auch hier sollte man einschränken, um welche Daten es sich handeln kann.
(emw)