Security: KI-gestützte Chatbots mit RAG-System absichern
KI-Systeme, die mittels Retrieval Augmented Generation Antworten aus einer eigenen Kontextdatenbank geben, sind für verschiedene Angriffe anfällig.
- Patrick Levi
KI-gestützte Chatbots finden zunehmend ihren Weg als Assistenten bei Schreibarbeiten, beim Suchen und Verarbeiten von Informationen bis hin zu komplexen Tätigkeiten wie Softwareentwicklung. Ein Nachteil der KI-Chatbots ist aber das aufwendige Training. So ist es aus Kostengründen oft nicht möglich, die eigenen Chatbots auf eigenen Texten zu trainieren – das System ständig auf neue Informationen anzupassen, wäre sogar mit eigenen Nvidia-Clustern eine Sisyphosaufgabe. Um einen Chatbot mit aktuellen oder eigenen Texten zu verwenden, erweitert man daher ein bereits bestehendes System mit Retrieval Augmented Generation (RAG).
Die in diesem Artikel dargestellten Angriffsmöglichkeiten sollen ein Bild vermitteln, welche Art Angriffe gegen RAG-Systeme aufgrund der KI-Komponenten möglich werden und wogegen Betreiber sich bei der Entwicklung oder dem Betrieb eines solchen Systems schützen müssen.
- Retrieval Augmented Generation ist ein vielversprechender Ansatz für das Informationsmanagement in Unternehmen, der jedoch mit eigenen Schwachstellen aufwartet.
- Neben der Gefahr durch Jailbreaks können Angreifer in manchen Systemen Daten einschleusen und damit große Schäden anrichten.
- Gute Systemprompts können Betreiber vor einem Datenabfluss schützen, helfen jedoch nicht gegen optimierte Überzeugungsversuche.
- Je nach Anwendungsfall sind eine Beschränkung der Anfragen, eine Begrenzung der Promptlänge und Metriken für echte Dokumente geeignete Schutzwerkzeuge.
Und so funktioniert RAG: RAG-Systeme bestehen im Wesentlichen aus drei Komponenten. Einer Dokumentendatenbank, einem Retriever und einem Generator. Das ergibt ein flexibles Frage-Antwort-System: Nutzer stellen eine bestimmte Frage und bekommen eine Antwort, die das System aus Informationen aus den Dokumenten in der RAG-Datenbank erstellt. Die Dokumente dienen in diesem Konstrukt als Kontext für ein großes Sprachmodell (Large Language Model, LLM), das mit dem Beantworten der Fragen beauftragt ist.
Das war die Leseprobe unseres heise-Plus-Artikels "Security: KI-gestützte Chatbots mit RAG-System absichern". Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.