zurück zum Artikel

McAfee bringt Deepfake-Detektor: Ton und nicht Video sind entscheidend

Dr. Udo Seidel
Deepfake-Schriftzug vor Handy in Menschenhand

(Bild: Skorzewiak/shutterstock.com)

KI-Deepfakes sind laut McAfee die nächste große Bedrohung. Ein neues Tool des Anbieters soll jetzt Videos automatisch und im Hintergrund überprüfen können.

Wie jede neue Technik wird auch KI missbraucht: Erst kürzlich bestätigte OpenAI öffentlich, dass Cyberkriminelle ChatGPT zur Entwicklung von Malware [1] benutzt haben. Und gefälschtes Video- und Audio-Material ist der Ausgangspunkt für verschiedene Betrugsmaschen. Inzwischen sind nur noch ein paar Sekunden einer Sprachaufnahme für ein perfektes Nachmachen nötig.

McAfee will solche Machenschaften nur mit den eigenen Mitteln schlagen. Mit einer Software namens Deepfake-Detektor soll eine KI gefälschte Video- und Audio-Nachrichten nahezu in Echtzeit erkennen. Der Benutzer muss dafür gar nichts tun, nicht einmal eine URL oder Datei auf ein spezielles Prüfportal hochladen. Momentan ist der Deepfake-Detektor auf Englisch spezialisiert, hier liegt die Erkennungsrate bei 96 Prozent. Die Unterstützung weiterer Sprachen ist für die nächsten Monate geplant.

Um den Deepfake-Detektor zu nutzen, müssen Anwender McAfee Total Protection oder LiveSafe installieren. Das Werkzeug ist dort integriert und zeigt Statistiken über geprüfte und für gefährlich eingestufte Videos. Zum Start funktioniert das mit dem Webbrowser. Ruft man eine Webseite mit Videomaterial auf, überprüft der Deepfake-Detektor die damit verbundene Audiospur. Ist diese mit KI verändert, erfolgt eine Benachrichtigung an den Anwender. Hinzu kommt ein entsprechender Vermerk in McAfee Total Protection oder LiveSafe.

Warum erfolgt keine Prüfung des Videomaterials? Untersuchungen von McAfee haben ergeben, dass der Ton den Unterschied ausmacht: Ein gefälschtes Video mit schlechter Audio-Qualität lockt Nutzer nur selten in die Falle – der durchschnittliche Anwender akzeptiert vielmehr ein Bild mit Fehlern und Pixeln und lauscht den zugehörigen Stimmen. Außerdem spart der Deepfake-Detektor so Rechenzeit und -ressourcen.

Trotzdem benötigt der Deepfake-Detektor Rechenkapazität für seine Aufgabe, was jedoch nicht die eigentlichen Anwendungen des Benutzers beeinträchtigen soll. Technisch gesehen setzt die Software auf einen KI-Beschleuniger, auch Neuromorpher Prozessor genannt. Hierzu führt McAfee mit ausgewählten Hardware-Herstellern eine Zertifizierung durch. Schon an Bord sind Lenovo-Notebooks [2], Gespräche mit Dell und Asus finden ebenfalls statt. Wer einen solchen Laptop kauft, kann den Deepfake-Detektor 30 Tage lang kostenlos testen. Für die darauf folgenden 12 Monate beginnt der Abo-Preis bei knapp 10 US-Dollar.

Darüber hinaus führt McAfee eine einfache Überprüfung von als Deepfake verdächtigtem Material für den privaten Gebrauch ein, Smart AI Hub genannt. Hier können sich Nutzer über die neuesten Entwicklungen im Bereich Deepfake informieren. Und wer will, kann mithelfen und selbst gefundene Fälschungen melden.

Mehr von iX Magazin Mehr von iX Magazin [3]

(fo [4])


URL dieses Artikels:
https://www.heise.de/-10006016

Links in diesem Artikel:
[1] https://www.heise.de/news/OpenAI-gibt-zu-ChatGPT-wird-zur-Malware-Entwicklung-genutzt-9979470.html
[2] http://www.mcafee.com/blogs/internet-security/mcafee-deepfake-detector-with-lenovo/
[3] https://www.heise.de/ix
[4] mailto:fo@heise.de