Studie: Ein Drittel neuer Websites ist KI-generiert

Rund 35 Prozent neuer Websites sind laut einer Studie KI-generiert. Während die inhaltliche Vielfalt abnimmt, bewahrheiten sich andere Befürchtungen nicht.

vorlesen Druckansicht 17 Kommentare lesen
Pixelige Nahaufnahme des Schriftzugs https://www in einem Browser

(Bild: Ryan DeBerardinis / Shutterstock.com)

Lesezeit: 4 Min.
Von
  • Malte Kirchner
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Viele Menschen trauen Künstliche Intelligenz-Erzeugnissen nicht. Im Netz wird es allerdings immer schwieriger, ihnen zu entkommen. Dies besagt eine jetzt veröffentlichte Studie von Forschern des Imperial College London und der Stanford University, die mit dem Internet Archive zusammengearbeitet haben, um das Netz stichprobenartig zu analysieren. Ihr Befund: Rund 35 Prozent aller neu ins Netz gestellten Websites seien KI-generiert oder zumindest KI-assistiert entstanden. Das Phänomen billig produzierter KI-Inhalte, auch bekannt als AI Slop, hat sich längst von Websites auf Plattformen wie YouTube und Instagram ausgebreitet. Diese 35 Prozent verblüfften selbst die Forscher, da der Anteil vor der Veröffentlichung von ChatGPT Ende 2022 bei null lag. Immerhin: Bei den Befürchtungen zu den qualitativen Auswirkungen dieses Trends gibt es positive Überraschungen.

Die Forscher haben für ihre Studie eine repräsentative Stichprobe aus dem Internet Archive (Wayback Machine) genommen und diese mit dem KI-Detektionstool Pangram v3 untersucht. Zusätzlich sahen sich menschliche Faktenprüfer extrahierte Behauptungen KI-generierter Seiten an, um zu untersuchen, wie sich das Erzeugen per KI auf die Inhalte auswirkt. Man habe es mit einer der schnellsten Transformationen der Digitalgeschichte zu tun, sagte Forscher Jonáš Doležal dem Onlinemedium 404media.

Die Inhalte wurden auf sechs verbreitete Annahmen abgeklopft. Dazu zählen Befürchtungen, dass durch KI die Vielfalt im Netz abnimmt, die Sprache künstlich aufgeheitert wird, Falschinformationen zunehmen, individuelle Schreibstile verschwinden und KI-Texte weniger externe Quellen verlinken. Auch der Sorge, dass Texte bei geringerer Informationsdichte immer länger werden, wurde nachgegangen.

Videos by heise

Das Ergebnis: Nur zwei der Hypothesen bewahrheiteten sich. Die semantische Ähnlichkeit zwischen KI-generierten Websites untereinander sei 33 Prozent höher gewesen als bei menschlich verfassten Seiten. Die Vielfalt an Ideen und Perspektiven im Netz nimmt also durch KI ab. Eine Studie der Duke University kommt zu einem ähnlichen Befund: KI-Modelle sind auch als Gruppe weniger kreativ als Menschen und nivellieren sprachliche Vielfalt. Und die KI ist überdies merklich heiterer: KI-generierte Inhalte wiesen einen um 107 Prozent höheren Anteil positiv bewerteter Dokumente auf als menschliche Texte.

Eine der am meisten verbreiteten Annahmen, dass mehr Falschinformationen im Netz stehen, erwies sich hingegen selbst als falsch. Es wurde kein statistisch signifikanter Zusammenhang zwischen KI-Anteil und Falschinformationsrate festgestellt. Eine Studie der Europäischen Rundfunkunion hatte jedoch gezeigt, dass KI-Chatbots Nachrichteninhalte in 45 Prozent der Fälle fehlerhaft wiedergeben. Laut Umfragen glauben 75,1 Prozent der befragten US-Erwachsenen, dass durch KI mehr Falschinfos im Netz stehen. Auch das Verschwinden individueller Schreibstile, der Verzicht auf Verlinkungen oder ein Hang zu längeren Texten mit weniger Infos konnten die Forscher nicht nachweisen.

Einen Grund aufzuatmen, sehen die Forscher allerdings nicht: Die Abnahme von Vielfalt im Netz könnte die Gesellschaft wie Desinformation beeinflussen. Und dass die KI bei Falschinformationen auf Augenhöhe mit menschlichen Texten ist, bedeute vielleicht einfach nur, dass das Netz grundsätzlich ein Problem mit der Wahrheit hat. Zudem könnte KI geschickter sein, Falschinformationen einzustreuen, die schlichtweg schwer überprüfbar sind.

Auch seien fehlende Kennzeichnungen von KI-Seiten ein Problem, weil sie Nutzer dazu bringen, Onlineinformationen pauschal infrage zu stellen. Dass Nutzer KI-Antworten dabei oft unkritisch übernehmen, belegt eine weitere Studie: KI macht denkfaul – und Nutzer dabei selbstsicherer, wie Forscher der University of Pennsylvania zeigten. Die Forscher empfehlen eine kryptografische Verifikation menschlicher Urheberschaft. Auch sollten Suchmaschinen und Empfehlungsalgorithmen darauf ausgerichtet werden, menschliche Erzeugnisse und Beiträge, die der Vielfalt dienen, hervorzuheben. Wie weit KI-gestützte Suche von klassischen Suchmaschinen noch entfernt ist, zeigt eine aktuelle Analyse: Forscher stellten gravierende Unterschiede zwischen KI-Suche und Google fest, etwa bei Quellendiversität und zeitlicher Konsistenz.

(mki)