Automatisch mittelmäßige Artikel

Der KI-Algorithmus GPT-3 reicht aus, um fast ohne menschliches Zutun populäre Blogs zu schreiben, hat ein Student gezeigt – mit beunruhigenden Konsequenzen.

In Pocket speichern vorlesen Druckansicht 248 Kommentare lesen
Automatisch mittelmäßige Artikel

(Bild: Photo by Alessio Ferretti on Unsplash)

Lesezeit: 5 Min.
Von
  • Karen Hao
Inhaltsverzeichnis

Anfang letzter Woche hatte Liam Porr von GPT-3 nur kurz einmal gehört. Doch bis Ende derselben Woche nutzte er das neue KI-Modell schon, um damit ein komplett unechtes Blog unter einem erfundenen Namen zu betreiben.

Das Ganze sollte nur ein spaßiges Experiment sein. Doch dann gelangte einer der Beiträge auf Platz 1 bei Hacker News, und den wenigsten Nutzern dort fiel auf, dass das Blog vollständig aus dem KI-System stammt. Manche abonnierten ihn sogar.

GPT-3 ist das bislang mächtigste KI-Werkzeug zum Generieren von Sprache. Über die Frage, was es für die Produktion von Inhalten bedeuten könnte, wurde schon viel spekuliert – aber das Blog von Porr ist das bislang einzige bekannte konkrete Beispiel dafür. Am auffälligsten für ihn bei dieser Erfahrung sei gewesen, dass es so einfach gegangen sei, sagt der Informatik-Student an der University of California in Berkeley – „das war der beängstigende Aspekt“.

Bei GPT-3 handelt es sich um größte und neueste KI-Modell von OpenAI, das die Forschungsorganisation mit Sitz in San Francisco seit Mitte Juli verbreitet. Schon mit der früheren Version GPT-2 war OpenAI im vergangenen Februar in die Schlagzeilen geraten, denn diese wurde aus Angst vor Missbrauch noch zurückgehalten. Diese Entscheidung stieß sofort auf Kritik und manche Forscher warfen dem Labor vor, nur Show zu machen. Im November gab OpenAI das Modell dann doch frei, weil es keine deutlichen Anzeichen für Missbrauch gegeben habe.

Bei GPT-3 ging das Labor jetzt anders vor: Der Algorithmus wurde weder versteckt noch öffentlich gemacht. Stattdessen durften ihn ausgewählte Forscher für private Beta-Tests nutzen, um ihr Feedback zu bekommen und die Technologie bis Ende des Jahres zu kommerzialisieren.

Porr bewarb sich um die Teilnahme und füllte ein Formular mit einfachen Fragen zur beabsichtigten Nutzung dazu aus. Aber er wartete nicht auf eine Entscheidung. In der KI-Community in Berkeley fand er rasch einen Doktoranden, der schon Zugriff auf den Algorithmus hatte und zu einer Zusammenarbeit bereit war. Also schrieb Porr ein kleines Skript, mit dem GPT-3 Überschrift und Einführung eines Blog-Beitrags bekommt und dann mehrere vollständige Versionen davon generiert. Sein erster Beitrag (der es bei Hacker News an die Spitze schaffte) war ebenso wie alle folgenden nichts als eines dieser Computer-Produkte mit wenig oder ganz ohne Überarbeitung.

„Von der Idee bis zur Kontakt-Aufnahme mit dem PhD-Studenten, dem Aufsetzen des Blogs und dem viralen ersten Beitrag vergingen nur ein paar Stunden“, berichtet Porr. Um größere Nachbearbeitungen zu vermeiden, musste er die Stärken und Schwächen von GPT-3 verstehen. „Er kann ganz gut schön schreiben, ist aber nicht sehr logisch und rational“, erklärt der Student. Also entschied er sich für eine beliebte Blog-Kategorie, in der es auf strenge Logik nicht so ankommt: Produktivität und Selbstverbesserung.

Anschließend schrieb Porr Überschriften nach einer einfachen Formel: Auf Medium und Hacker News sah er nach, was in diesem Bereich gerade gefragt war, und dachte sich etwas relativ Ähnliches aus. „Unproduktiv? Vielleicht solltest du weniger grübeln“, lautete eine seiner Vorgaben für die KI, eine weitere „Mut und Kreativität sind wichtiger als Intelligenz“.

Nach fast zwei Wochen mit fast täglichen Beiträgen beendete Porr das Projekt mit einer selbst geschriebenen kryptischen Botschaft: Unter der Überschrift „Was würde ich mit GPT-3 machen, wenn ich keine Moral hätte?“ erklärte er seinen eigenen Prozess in hypothetischer Form. Auf seinem echten Blog folgte am selben Tag noch ein direkteres Geständnis.

Er habe beweisen wollen, dass GPT-3 als menschlicher Autor durchgehen könne, sagt Porr. Tatsächlich hinterließen Dutzende Leser Kommentare unter seinem automatischen Artikel, der bei Hacker News auffiel. Und obwohl der Algorithmus manchmal merkwürdig schrieb oder Fehler machte, äußerten nur drei oder vier davon den Verdacht, dass hier kein Mensch am Werk war. Andere Nutzer reagierten zudem mit negativen Bewertungen auf alle diese Beiträge.

Experten machen sich seit langem Sorgen, dass natürlich schreibende Algorithmen zu genau solchen Situationen führen können. Seit den ersten Informationen über GPT-2 wird auch über Missbrauch spekuliert. In einem eigenen Blog-Beitrag konzentrierte sich OpenAI auf die Möglichkeit, mit dem KI-Werkzeuge massenhaft Desinformation zu erzeugen. Doch auch vor haufenweise Spam-Beiträgen mit gefragten Google-Keywords wurde schon gewarnt.

Laut Porr zeigt sein Experiment noch eine weniger dramatische, aber dennoch heikle Möglichkeit: Mit Hilfe des Werkzeugs könnten Menschen reichlich Clickbait-Inhalte generieren. „Es wäre denkbar, dass es eine Flut von mittelmäßigen Blog-Beiträgen gibt, weil die Eintrittshürden jetzt so niedrig sind“, sagt er. Der Wert von Online-Inhalten könne dadurch deutlich sinken. Trotzdem plant er weitere Experimente mit GPT-3 – aber jetzt will Porr auf die Freigabe durch OpenAI warten. „Vielleicht sind sie wütend, weil ich das gemacht habe“, sagt er, „es war ja auch ein bisschen dumm.“ (sma)