Interview: KI wird erstmal viele Menschen unglücklich machen

Bei Technik bekommt man immer beide Seiten der Medaille. Bei KI gilt es daher, sich gegen Deepfakes und generierte Malware abzusichern. Ein Interview.

In Pocket speichern vorlesen Druckansicht 53 Kommentare lesen

In der Abschlusskeynote der Sphere24 mahnt Mikko Hyppönen, dass positive, technische Entwicklungen auch Schattenseiten haben. Diese dürfe man nicht ignorieren, denn nur das Positive würde man nicht einfach bekommen.

(Bild: Jani Telatie / WithSecure)

Lesezeit: 10 Min.
Inhaltsverzeichnis

Während in den Medien meist die Fähigkeiten von generativen KI-Systemen gehypt werden, so wird doch immer wieder deutlich, dass auch Gefahren von den Systemen ausgehen. Die akutesten scheinen dabei Deepfakes, Betrugsversuche und Fehlinformationen zu sein. Sicherheitsexperten beschäftigen sich mit diesen und weiteren Gefahren, die KI für IT-Systeme und die Gesellschaft bedeuten können – darunter Mikko Hyppönen, der Chefwissenschaftler beim finnischen IT-Sicherheitsanbieter WithSecure ist. Hyppönen ist außerdem Autor und Speaker. Auf der Sphere24-Konferenz seines Unternehmens sprach Hyppönen in seiner Abschlusskeynote über den Nutzen und die Gefahren von Systemen – vom Internet, über Verschlüsselung bis KI. All diese Technik leistet Gutes, doch sie lässt sich auch für schädliche und kriminelle Zwecke nutzen. Der Schlüsselpunkt: Es ist nicht möglich, nur die guten Seiten einer Technologie zu bekommen. Es gilt, die schädlichen Aspekte abzuwägen und sich davor abzusichern. Im Zuge der Sphere24 sprach iX mit dem Sicherheitsexperten.

iX: Bei Ihren Vorträgen im letzten Jahr, etwa auf der itsa in Nürnberg, waren Sie sehr pessimistisch, welche Auswirkungen frei verfügbare KI-Modelle auf die Gesellschaft haben würden. Heute klang Ihr Ton in der Richtung etwas anders. Was hat sich in den letzten Monaten verändert?

Mikko Hyppönen (MH): Anders als vor einem Jahr sehe ich weniger Diskussionen und Sorgen darüber, dass die künstliche Intelligenz durchdreht und sich verselbstständigt. Natürlich gibt es Leute, die sich darüber Sorgen machen und darüber schreiben, aber ich mache mir mehr Sorgen über andere Sicherheitsaspekte von künstlicher Intelligenz als über das Eindämmen der Systeme. Eindämmung und Ausrichtung von Modellen sind wichtig, aber ich glaube nicht, dass es sich dabei um kurzfristige Probleme handelt. Wir müssen das natürlich berücksichtigen, wenn wir diese Systeme bauen. Aber das ist nicht wirklich etwas, worüber ich mir große Sorgen mache.

Im Interview: Mikko Hyppönen

(Bild: 

WithSecure

)

Mikko Hyppönen ist ein finnischer Computersicherheitsexperte und quasi Urgestein der Sicherheitscommunity. Seit 1991 arbeitet er bei WithSecure, wo er mittlerweile Chief Research Officer ist. Er ist regelmäßig als Berater für die Cybersicherheitsbranche tätig, wie kürzlich beim Cyberangriff auf das Vastaamo Psychotherapy Centre in Finnland.

iX: Was besorgt Sie denn?

MH: Ich mache mir viel mehr Sorgen über die praktischen Dinge: Deepfakes, Deepscams, das Erstellen von Malware mit Large Language Models, das Automatisieren von Malware-Kampagnen und dass KI Zero Days finden kann. Bei der Vorbereitung meines Vortrages für die Sphere habe ich meine Folien aus dem letzten noch einmal angesehen und in 11 Monaten haben sich so viele Dinge verändert. Die Technik ist so viel besser geworden. Schon vor einem Jahr war sie atemberaubend. Letztes Jahr hatte ich eine Folie, auf der ich versuchte, die Tatsache zu unterstreichen, dass sich die Dinge so schnell entwickeln, dass es schwer ist, Schritt zu halten, selbst wenn man es versucht. Seitdem ist die Entwicklung noch schneller geworden und nimmt weiterhin an Fahrt auf.

iX: Bei den großen, geschlossenen KI-Modellen sollen Nutzungsrichtlinien und technische Leitplanken Deepfakes, Scams und das Erstellen von Malware verhindern. Allerdings gibt es eine Vielzahl an offenen Modellen, die Nutzer selbst konfigurieren können. Wie groß ist dieses Problem?

MH: Das Thema Open Source und Closed Source ist bei KI eine wirklich harte Nuss. Ich liebe Open Source, aber ich sehe Grenzen, wie weit das bei künstlicher Intelligenz praktikabel ist. Ich sehe keine Lösung für die Tatsache, dass man die Sicherheitseinschränkungen aufheben kann, wenn man Zugang zum Code selbst hat. Vielleicht könnten wir versuchen, eine technische Lösung dafür zu finden. Eine Hybridlösung, bei der ein Teil des Codes quelloffen ist, aber dann eine Art Leitplankenanwendung, die immer quelloffen ist und auf die man über ein Online-System zugreifen kann. Damit könnte man die Dinge anpassen, die man wirklich ändern muss, aber kann die Sicherheitsbeschränkungen nicht ändern. Allerdings bin ich mir nicht sicher, ob das funktionieren würde. Ich bin mir nicht sicher, ob wir damit glücklich wären.

iX: Es gibt eine Menge Leute, die sich sehr für Open Source einsetzen und fast schon religiös sind, wenn es darum geht.

MH: Genau, die Lizenz muss stimmen. Wenn es irgendeinen Teil davon gibt, der wie eine Blackbox ist, ist das nicht in Ordnung. Open-Source-KI ist also ein schwieriges Problem. Ich weiß nicht, ob die Regulierung das in Zukunft wirklich berührt, denn im Moment ist das nicht der Fall. Gibt es Vorschriften für Open und Closed Sourcing mit KI? Ich kann mich an keine erinnern. Vielleicht brauchen wir welche.

iX: Was halten Sie von halboffenen Lizenzen, wie etwa der von Metas Llama?

MH: Ich glaube, Meta reagiert einfach darauf, dass sie zu spät ins Spiel gekommen sind und OpenAI ihnen den Wind aus den Segeln genommen hat. Ich denke, das ist der eigentliche Grund, warum sie Open Source geworden sind. Ursprünglich hat Meta nur Forschern und Akademikern Zugang gewährt, von denen einige die Daten sofort weitergaben. Das hat Meta dann umgedreht und gesagt, dass sie die Modelle eigentlich die ganze Zeit offen halten wollten. Also haben sie es schließlich mit dieser seltsamen Lizenz veröffentlicht.

Das Ganze ist in meinen Augen von Anfang an ein ziemlicher Schlamassel. Ein großer Teil der Sprachmodelle, die für kriminelle Zwecke zum Einsatz kommen, basieren auf Llama. Llama ist das beste der Open-Source-Modelle. Kriminelle kümmern sich nicht um die Lizenz. Wenn sie den Quellcode haben, ist das alles, was sie brauchen.

Deepfakes, Deepscams, das Erstellen vom Malware mit Large Language Models, das Automatisieren von Malware-Kampagnen und, dass KI Zero Days finden kann sind die Dinge, die Mikko Hyppönen aktuell mehr beunruhigen als die Möglichkeit, dass KI-Modelle sich verselbstständigen und durchdrehen.

(Bild: Jani Telatie / WithSecure)

iX: Neben den Angreifern nutzen natürlich auch die Verteidiger KI-Systeme. Ein bereits länger etablierter Einsatzzweck ist das Auswerten von Alerts durch KI. Die ist dabei um einiges schneller in der Bewertung und dem Annotieren als Menschen. Besteht hier die Gefahr einer Aufmerksamkeitsermüdung durch die Flut an Nachrichten, die Menschen dann doch noch kontrollieren müssen?

MH: Ich denke, dass die KI einer der großen Helfer gegen die Ermüdung ist. Natürlich können solche Systeme, wenn sie nicht richtig konfiguriert sind, eine unbegrenzte Anzahl von Benachrichtigungen und Alarmen generieren. Man kann ihnen aber beibringen, sich auf die zu konzentrieren, die für einen wirklich wichtig sind. Und das ist genau das, was wir in unserem Unternehmen erreichen wollen. Wir versuchen, anderen Unternehmen Systeme zugänglich zu machen, die sie aufgrund der Größenordnung der Systeme vielleicht sonst nicht nutzen könnten. Fachwissen und Geld sind hier die größte Hürde. KI spielt dabei eine große Rolle, denn sie versucht, das Rauschen oder die Dinge, die einen ermüden, zu beseitigen. Großen Sprachmodelle und generative KI-Systeme sind wirklich gut darin, seltsame Dinge zu erkennen. Viel besser als Menschen. Diese Systeme können viel mehr Daten verdauen, viel mehr Quellmaterial, und dann herausfinden, dass bestimmte Events noch nie zuvor passiert sind.

iX: Sie erzählen in Ihren Präsentationen, dass Sie KI mittlerweile täglich für verschiedene Aufgaben nutzen. Würden Sie den Systemen interne Dokumente oder Quellcode anvertrauen?

MH: Nein, das widerspräche unseren Richtlinien. Es geht nicht darum, ob ich den Systemen glauben oder vertrauen würde. Wir haben Richtlinien über die Verwendung interner oder persönlicher Identifikationsdaten oder unserer Closed-Source-Anwendungen.

Für die Dinge, die ich mit Text mache, nutze ich hauptsächlich Claude. Wo mir KI wirklich viel Zeit spart, ist beim Lesen von langen Dokumenten oder Büchern. Das System liest 100-seitige Whitepaper, auch in Sprachen, die ich nicht spreche, zum Beispiel in Italienisch, und dann kann ich den Inhalt des Whitepapers in Finnisch, meiner Muttersprache, diskutieren.

IX-WORKSHOP: Künstliche Intelligenz im Unternehmenseinsatz

Was kann KI, wo spielt sie ihre Stärken aus, wo liegen die Potenziale, aber auch die Risiken? In diesem Workshop gibt Markus Gürtler einen Marktüberblick, stellt die Funktionsweise großer Sprach- und Bildmodelle vor und erläutert, wie diese in bestehende Produkte und Dienstleistungen integriert werden können. Dabei geht er auch auf die Herausforderungen ein, insbesondere im Hinblick auf Risiken, Cybersicherheit und Datenschutz. Der Workshop findet online statt, weitere Informationen und Tickets gibt es unter heise.de/s/Q3PA5.

Wird diese Forschung irgendwo in dem Papier erwähnt? Ja, das wird sie. Und wenn ich dann einige dieser Informationen weiterverwende, etwa eine eigene Zusammenfassung schreibe, überprüfe ich natürlich die Fakten, aber in der Regel sind sie korrekt. Ich habe das mit vielen meiner älteren Papiere, die ich selbst geschrieben habe, getestet, bevor ich anfing, KI in größerem Umfang zu nutzen.

KI ist sehr nützlich und ich mag die Technik. Natürlich wird sie viele Menschen unglücklich machen, wie wir das bei jeder technologischen Revolution gesehen haben. Die industrielle Revolution hat auch viele Menschen unglücklich gemacht, aber ich denke, dass wir alle froh sind, dass sie stattgefunden hat. Wir leben gerne in einer Gesellschaft, in der wir nicht für alles Muskeln einsetzen müssen. Wir haben Maschinen und Motoren.

iX: Auch Ihr Unternehmen bietet jetzt ein Produkt an, in dem das Sprachmodell Claude Haiku zum Einsatz kommt. Welche Probleme sind aufgetreten, als Sie das Modell feingetunt und eingerichtet haben?

MH: Im Moment gibt es eine Menge Leistungsprobleme. Es braucht eine Menge Rechenleistung, um diesen Maschinen etwas beizubringen. Und auch das versuchen wir zu berücksichtigen. Das Training dieser Systeme ist mit erheblichen Kosten verbunden und auch die Umweltkosten sind nicht zu vernachlässigen. Ein einzelner der NVIDIA-Grafikprozessoren, die zum Trainieren dieser Geräte zum Einsatz kommen, verbraucht 700 Watt Strom. Das ist ein Staubsauger. Diese Karten laufen 24 Stunden am Tag in großen Rechenzentren. Das Training ist also mit Kosten verbunden, es ist aufwendig und teuer. Aber das Endergebnis scheint es wert zu sein.

Herr Hyppönen, vielen Dank für das Gespräch.

Das Interview mit Mikko Hyppönen ist im Zuge der Sphere24-Konferenz in Helsinki entstanden und fand auf Englisch statt. Der Redakteur wurde von der Firma WithSecure zu der Veranstaltung eingeladen, die den Aufenthalt in Finnland bezahlt hat.

(pst)