Die Sicherheitsrisiken von KI-Assistenten wie OpenClaw

Das Projekt OpenClaw zeigt beeindruckend, was KI kann, wenn man sie lässt – und es zeigt, welch vielfältige Risiken damit einhergehen.

Artikel verschenken
vorlesen Druckansicht 17 Kommentare lesen

(Bild: openclaw.ai)

Lesezeit: 8 Min.
Inhaltsverzeichnis

Ende Januar ging der Traum vieler IT-Nerds in Erfüllung: ein digitaler Assistent, der im eigenen Rechner lebt, mit dem man reden kann, der Aufträge erledigt, der sich selbst meldet, wenn etwas Wichtiges passiert, und auch autonom Lösungen für Probleme sucht, auf die er stößt. Selbstständiger gar als der „Computer“ in StarTrek und scheinbar nur eine SciFi-Bedienoberfläche von J.A.R.V.I.S. entfernt, Tony Starks digitalem Assistenten in den Iron-Man-Filmen.

Mehr zum Thema KĂĽnstliche Intelligenz (KI)

Die dafür verantwortliche Software OpenClaw gewann derart rasant an Popularität, dass sogar die Hype-gewöhnte KI-Szene sich kollektiv die Augen rieb. Innerhalb von Tagen sammelte das erst gut zwei Monate alte Projekt über 160.000 Sterne in seinem GitHub-Repository und war Thema in praktisch jedem KI-Blog.

OpenClaw besteht im Wesentlichen aus einer Komponente namens „Gateway“, die diverse Chat-Interfaces mit dem KI-Coding-Agenten „Pi“ verknüpft und die Anbindung an eine Reihe Bedienoberflächen zur Konfiguration ermöglicht. Welches externe oder lokale Sprachmodell Pi einspannt, wie OpenClaw Sessions und das Gedächtnis des KI-Assistenten verwaltet, welche Werkzeuge (einschließlich eines Browsers) dem KI-Agenten zur Verfügung stehen und vieles mehr kann man konfigurieren.

Das war die Leseprobe unseres heise-Plus-Artikels "Die Sicherheitsrisiken von KI-Assistenten wie OpenClaw". Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.