KI in der Cybersecurity – Sicherheit trotz Coding-Agenten, LLMs und Deepfakes
Künstliche Intelligenz verändert die IT-Sicherheit und schafft neue Herausforderungen. Sie bietet neue Angriffsflächen, aber auch Möglichkeiten.
(Bild: Erzeugt mit Midjourney durch heise academy)
- Christoph Böttcher
Künstliche Intelligenz verändert die Spielregeln der IT-Sicherheit fundamental. Angreifende nutzen KI, um effizienter und zielgerichteter zuzuschlagen. Gleichzeitig stehen den Verteidigenden ebenfalls neue Optionen zur Verfügung, um Angriffe abzuwehren und potenzielle Schwachstellen schnell zu identifizieren. Unser Classroom KI in der Cybersecurity – Angriff und Verteidigung im Zeitalter von LLMs und Deepfakes führt von den technischen Grundlagen über KI-Assistenten bis zu autonomen Agenten, zeigt aber auch die derzeitigen Grenzen der Technologie auf.
Unser Security-Experte Frank Ully stellt den gesamten Lebenszyklus vertrauenswürdiger KI vor und erläutert die sichere Modellauswahl. Admins und IT-Sicherheitsverantwortliche verstehen, wie sie mit RAG (Retrieval Augmented Generation) und MCP (Model Context Protocol) eine Infrastruktur aufbauen, die den Datenschutz achtet. Statt blind auf Vollautomatisierung zu setzen, erfahren Teilnehmende, wie KI-Assistenten ihre Arbeit unterstützen (Augmentierung). Sie lernen, mit Coding-Agenten bestehende Tools zu verbinden und eigene Sicherheitswerkzeuge zu bauen sowie die eigene Angriffsfläche per OSINT zu verringern und das Patch-Management zu beschleunigen.
KI als weiteres Werkzeug
In weiteren Sessions lernen Teilnehmende LLM-Systeme gegen Prompt Injections zu härten und wirksame Leitplanken zu ihrem Schutz (Guardrails) zu errichten. Um deren Wirksamkeit zu testen, kommen Red-Teaming-Werkzeuge zum Einsatz, um die Systeme einem Stresstest zu unterziehen. Frameworks zur Risikobewertung runden diesen Abschnitt schließlich ab.
Das oberste Ziel unseres Classroom stellt die Augmentierung der Verteidigenden dar: KI soll zukünftig die Fleißarbeit übernehmen, damit sich Admins und IT-Sicherheitsverantwortliche auf die komplexen Bedrohungen konzentrieren können. Die Verantwortung für die Security liegt somit weiterhin beim Menschen, KI-Systeme stellen lediglich ein weiteres Werkzeug dar, mit dem sie ihre IT-Systeme absichern. Die Termine sind:
- 16.04.26: KI-Security Grundlagen – Large Language Models und Transformer-Architektur verstehen
- 21.04.26: OWASP Top 10 für LLM – Sprachmodelle und KI-Agenten sicher implementieren
- 28.04.26: LLM-Ökosystem sicher aufbauen – mehr Produktivität und vertrauenswürdige Infrastruktur
- 05.05.26: Generative KI im Cybercrime – Wie Hacker künstliche Intelligenz für Malware und Social Engineering nutzen
- 12.05.26: Generative kĂĽnstliche Intelligenz fĂĽr Verteidiger und das Purple Team
Bereits ab dem zweiten Classroom oder einem Classroom und drei Videokursen rechnet sich unser Professional Pass mit Zugriff auf den gesamten heise academy Campus!
Praxis- und Expertenwissen – live und für später
Die Sessions haben eine Laufzeit von jeweils vier Stunden und finden von 9 bis 13 Uhr statt. Alle Teilnehmenden können sich nicht nur auf viel Praxis und Interaktion freuen, sondern haben auch die Möglichkeit, das Gelernte mit allen Aufzeichnungen und Materialien im Nachgang zu wiederholen und zu vertiefen. Fragen werden direkt im Live-Chat beantwortet und Teilnehmer können sich ebenfalls untereinander zum Thema austauschen. Der nachträgliche Zugang zu den Videos und Übungsmaterialien ist inklusive.
Weitere Informationen und Tickets finden Interessierte auf der Website des Classrooms.
heise academy abonnieren
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
(cbo)