Security: Angriffe auf große Sprachmodelle

Die geringe Einstiegshürde von großen Sprachmodellen ist ihre Schwäche: Bei mangelhaften Sicherheitsvorkehrungen lassen sie sich zu Fehlverhalten überreden.

Artikel verschenken
vorlesen Druckansicht 5 Kommentare lesen
Lesezeit: 26 Min.
Von
  • Marco Bertenghi
Inhaltsverzeichnis

Große Sprachmodelle (Large Language Models, LLMs) kommen in Unternehmen häufig zum Einsatz: im Kundendienst, beim Klassifizieren und Moderieren von Inhalten zur Textzusammenfassung. Da LLMs in vielen Fällen mit sensiblen Firmen- oder Kundendaten arbeiten, sollten sie einem hohen Sicherheitsstandard gerecht werden. Zunehmend wollen Firmen LLMs in ihre eigenen Applikationen integrieren, damit Anwender in natürlicher Sprache damit interagieren können. Für viele Benutzer hebt sich dies wohltuend von klassischen Nutzerschnittstellen ab, durch die sie mit Auswahlmenüs, Kontrollkästchen, Menüleisten und Ähnlichem navigieren. Auch komplexere Anwendungen sind möglich: Die Firma Palantir etwa – in Deutschland bekannt durch die bürgerrechtlich umstrittene Polizeisoftware VeRa, Hessendata und DAR – setzt mehrere LLMs ein und lässt diese über API-Aufrufe mit ihren Applikationen interagieren.

Neben der unkonventionellen Bedienung unterscheiden sich LLM-Anwendungen auch durch ihren Zufallscharakter von typischer, deterministischer Software. Die OWASP Foundation bietet mit ihrer Rangliste der größten Sicherheitsrisiken in Software einen guten Anlaufpunkt für Entwickler und hat nach dem Aufkommen der LLMs in Rekordgeschwindigkeit eine Rangliste der mit KI-Sprachmodellen einhergehenden Risiken herausgegeben. Diese technische Liste hat die OWASP Foundation mittlerweile noch um das Dokument "LLM Cybersecurity and Governance Checklist" (PDF) mit Managern und Geschäftsführern als Zielgruppe erweitert.

iX-tract
  • Immer mehr Unternehmen möchten große Sprachmodelle (LLMs) in ihre Anwendungen integrieren. Sicherheitsverantwortliche und Administratoren müssen ihre Sicherheitsvorkehrungen darauf ausrichten.
  • Alle Modelle haben Schwachstellen: Halluzinationen und Voreingenommenheit der Modelle sind dabei intrinsische Fehler der LLMs, die in jedem Fall auftreten werden.
  • Um Sprachmodelle sicher einzusetzen, muss am Anfang ein klarer, eng zugeschnittener Einsatzzweck stehen, der sich mit klassischer Software nicht erfüllen lässt.
  • Im Betrieb müssen Unternehmen Eingaben in Sprachmodelle bereinigen, Ausgaben überwachen und den Zugriff auf externe Quellen und Werkzeuge strikt beschränken.

Dieser Artikel wird sich mit Gefahren aus der Top-10-Liste beschäftigen, um Verständnis für die Risiken und Schutzmechanismen zu schaffen, die für den sicheren Einsatz von LLMs im Unternehmenskontext entscheidend sind. Dabei geht es um Schwachstellen wie Prompt-Injektionen, die Risiken durch ungeprüfte LLM-Ausgaben und darum, das Offenlegen sensibler Informationen zu verhindern. Zudem sind intrinsische Phänomene wie Halluzinationen, Bias und Schmeicheleien (englisch Sycophancy) durch die Systeme sowie ihre Auswirkungen beschrieben.

Das war die Leseprobe unseres heise-Plus-Artikels "Security: Angriffe auf große Sprachmodelle". Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.