KI-Zukunft: Auf geprüfte Texte folgt ungeprüfter Unsinn
DIe KI-Nutzung entwickelt sich bedenklich weiter. Zunächst experimentierten Medien mit redakteursgeprüften KI-Texten, jetzt folgt ungeprüfter Textschrott.
Künstliche Intelligenz kann dank ChatGPT und Co. einigermaßen lesbare Texte produzieren. Einige Medienhäuser experimentieren mit KI-Texten, die vor der Veröffentlichung von Redakteuren geprüft und gegebenenfalls korrigiert werden. Inzwischen gibt es jedoch News-Outlets, die offenbar ungeprüften Textmüll mittels KI produzieren und stark SEO-optimiert veröffentlichen.
Eine Entwicklung, die zu erwarten und im Kleinen bereits zu beobachten war. Wer wie Redakteure textsicher unterwegs ist, erkennt solche Gebilde in der Regel (noch) recht einfach. Wer jedoch nicht täglich mit dem Schreiben und Redigieren von Texten befasst ist, kann solche Machwerke möglicherweise nicht identifizieren und deren Wahrheits- und Neuigkeitsgehalt nicht einschätzen. Desinformation durch KI-Texte ist die Folge.
Ungeprüfte KI-Texte waren bislang kein Problem
Dass einige Webseiten derartig produzierten Textmüll veröffentlichten, war bislang kein größeres Problem. Zu irrelevant waren sie, hatten meist kaum Reichweite. Jetzt werden die Google Trends jedoch von einem Newsoutlet geflutet, das alten, irrelevanten Content mit KI aufbereitet als wichtige Neuigkeit offenbar gut suchmaschinenoptimiert verbreitet.
Bei der Überprüfung einer solchen Nachricht, die zwei Sicherheitslücken in einer nahezu irrelevanten Software auf Platz 1 der Google Trends befördert hat, stellte sich heraus, dass diese News auch als Hinweis im Text von einer KI erstellt wurde. Es gibt zudem ein Redakteurskürzel an der Meldung, ohne weiterreichende Kontaktmöglichkeiten. Wer Feedback oder Anmerkungen habe, möge sie dem News-Portal doch mitteilen. Die Redakteursarbeit – etwa für die Analyse und die Anmerkung, dass die Meldung unsinnig ist – wird so auf den Leser abgewälzt. Die Werbeeinnahmen landen jedoch beim Portalbetreiber.
Die initial geprüfte Meldung, die an oberster Stelle in den Google Trends landete, dreht sich um Sicherheitslücken in der Software "tribe29 checkmk". Diese hätte das BSI jetzt gemeldet. Das Bundesamt für Sicherheit in der Informationstechnik meldet tatsächlich Schwachstellen in allerlei Software. Es aktualisiert alte Meldungen dann auch gelegentlich. Offenbar auch in diesem Fall. Zwar erläutert die News, dass das BSI das gemeldet hätte, verlinkt die Quelle jedoch nicht. Allerdings die beiden Sicherheitsmeldungen in dem Produkt. Und diese stammen einerseits vom 25.09.2017 sowie andererseits vom 11.10.2018. Ein menschlicher Redakteur hätte diese Informationen – kaum verbreitete Software, uralte Sicherheitslücken – kombiniert und dorthin verfrachtet, wo sie hingehören: in den digitalen Orkus. Einer KI fehlen offenbar die Antennen dafür.
Auch echte Redakteure haben manchmal einen Zwiespalt, etwa Informationen zu älteren Sicherheitslücken zu melden. Wenn ein Hersteller eine Sicherheitslücke schließt und dann erst drei Monate später dazu eine Mitteilung veröffentlicht, geht es um die Abwägung der Schwere der Lücke und der Wichtigkeit des Updates, ob noch eine Meldung folgt. Wenn die Meldung unterbliebe, liefen IT-Verantwortliche jedoch Gefahr, nichts von den Sicherheitslücken und den nötigen Updates zu erfahren. Eine derartige Abwägung findet jedoch bei den KI-Texten hier ganz eindeutig nicht statt.
Die KI stellt uns damit in der Zukunft vor neue Herausforderungen. Als Werkzeug mag sie segensreich sein, als Informationsquelle versagt sie hingegen immer wieder.
(dmk)