Künstliche Intelligenz: Forscher fordern Schutz vor Missbrauch

Die KI-Technik sei so weit entwickelt, dass sie eine ernste Bedrohung darstellt, sollten Schurkenstaaten, Kriminelle oder Terroristen sie einsetzen, meinen Experten. Sie äußern sich in einer Studie zu möglichen Gegenmaßnahmen und Kontrolle.

In Pocket speichern vorlesen Druckansicht 44 Kommentare lesen
Künstliche Intelligenz, Informationsfreiheit

(Bild: iX)

Lesezeit: 2 Min.

Internationale Forscher beleuchten in einer Studie den aktuellen Stand von künstlicher Intelligenz (KI) und maschinellem Lernen (ML) und gehen der Frage nach, wie diese Technik zum Risiko werden kann, wenn Kriminelle, Terroristen oder Schurkenstaaten sie benutzen. Dabei richtet sich die Sorge der Autoren vor allem auf fortgeschrittene ML-Techniken, die bereits jetzt – nicht erst in ferner Zukunft – ohne menschliches Zutun agierten, berichtet BBC.

Aktuelle KI-Technik sei so ausgereift, dass sie eine Bedrohung darstelle, sollte sie in feindlicher Absicht benutzt werden, legen die Autoren dar. Und die Gefahr eines Missbrauchs sei real, wie jüngste Beispiele etwa von gezielten Angriffen oder Desinformation zeigten. KI habe unbestritten viele positive Wirkungen, jedoch würden die Gefahren bislang kaum thematisiert. Eine Feststellung, die auch jüngst auf der Müncher Sicherheitskonferenz geäußert wurde.

Deshalb fordern die Autoren der Studie Politiker und KI-Spezialisten auf, sich über die Eindämmung der Gefahren durch KI zu verständigen, ohne die Forschung allzu sehr zu beeinträchtigen. In den falschen Händen könne KI die digitale, physische und politische Sicherheit bedrohen, beispielsweise durch Cyberattacken, Dronen und Manipulation. Insbesondere Entwickler müssten bereits beim Design von KI-Systemen auf möglichen Missbrauch achten.

Als konkrete Gegenmaßnahmen schlagen die Autoren unter anderem vor, Verfahrensweisen aus der IT-Sicherheit zu übernehmen wie Schwachstellen verantwortungsvoll offenzulegen (Veröffentlichung erst bei Verfügbarkeit eines Patches). Bei Forschung, Lizenzierung und Freigabe von KI-Technik sollten ähnliche Regelungen wie bei Dual-Use-Gütern erwogen werden.

Die 100 Seiten lange Studie "The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation" ist als PDF-Datei frei verfügbar. An ihr waren 26 Wissenschaftler sowie Mitglieder wissenschaftlicher und zivilgesellschaftlicher Einrichtungen beteiligt, darunter die Electronic Frontier Foundation, das Future of Humanity Institute, das Centre for the Study of Existential Risks, das Projekt OpenAI, mehrere Universitäten und der regierungsnahe US-Think-Tank Center for New American Security.

Die Studie beruht auf der Forschungsarbeit der Autoren sowie auf Diskussionen des Workshops "Bad Actor Risks in Artificial Intelligence" (deutsch etwa: Risiken von KI in Schurkenhänden), der vom 19. bis 20. Februar 2017 in Oxford stattfand. Die Themen des Workshops waren automatisiertes Hacken, gezielte Propaganda mit KI-Hilfe und (teil-)autonome Waffensysteme sowie der Umgang von Regierungen mit Besitz und Nutzungsbeschränkung von KI-Technik. (tiw)