iX 1/2023
S. 3
Editorial
Januar 2023

Neuronale Parasiten

Ulrich Wolf

Das Internet geht kaputt, diesmal wirklich. ChatGPT und seine bald aus den Inkubatoren schlüpfende Verwandtschaft werden es zerstören. Nicht das Netz selbst natürlich, aber seine Ökonomie.

Denn die Art und Weise, wie das Web funktioniert, ist nicht kompatibel mit dem, was große Sprachmodelle jetzt können. Bei allem, was es zur Plattformökonomie und zur Monopolisierung zu sagen gäbe, das Web in seiner heutigen Form liefert immer noch Anreize, um kreativ zu sein. Texte schreiben, Videos drehen, Bilder aufnehmen und manipulieren, das alles wird auf die eine oder andere Weise belohnt, direkt mit Geld, durch Reputationsgewinn oder Aufmerksamkeit für Produkte und Dienstleistungen.

Werden Informationen, wird das Wissen über die Welt vorzugsweise oder ausschließlich durch KI-Systeme vermittelt, ist es damit vorbei. Warum soll ich einen verkappten SEO-Text lesen, wenn ich ChatGPT einfach fragen kann, was für meine Ansprüche das beste Produkt ist? Warum soll ich mich durch eine Softwaredokumentation, KI-generiert oder nicht, quälen, wenn mir ein Chatbot im Detail erklärt, wie mein System zu konfigurieren ist? Und warum soll dann irgendwer, Mensch oder Maschine, den SEO-Text oder die Softwaredokumentation überhaupt erzeugen?

Nur: Wenn es keiner tut, haben irgendwann alle ein Problem. Jahrzehntelang haben Menschen das Netz vollgeschrieben. Schreiben nur noch die großen Sprachmodelle, werden sie irgendwann ihre eigenen Ausscheidungen erneut verdauen müssen. Vielleicht werden Modelle darauf trainiert, KI-generierte von menschlichen Texten zu unterscheiden, worauf wiederum die generativen Modelle ... etc. pp. Das Prinzip sollte klar sein.

In der derzeitigen Form sind die großen Modelle parasitärer als alles, was das Web bisher an Techniken und Geschäftsideen aufgefahren hat – Google News (die Älteren werden sich erinnern) eingeschlossen: kein Vorteil für die Urheber von Wissen und Informationen in Sicht.

Was wäre die Alternative? Den Bot zwingen, seine Antworten mit Referenzen zu spicken wie ein zweitklassiger Hochschulassistent? Ganz davon abgesehen, dass das vermutlich noch nicht einmal möglich ist, so wie tiefe neuronale Netze funktionieren: Das will sich doch kein Anwender antun.

Andere Formen der (Selbst-)Regulierung? Vielleicht. Ein Abgrasverbot durch eine Kennzeichnung analog zur robots.txt und ein zweigeteiltes Netz? Warum nicht? Am besten wäre es freilich, wenn der Kapitalismus zeigt, was er kann, und die Anreizsysteme neu justiert. Dann wird das knappe Gut Information teuer für die, die es als Rohstoff brauchen. Informationen und Wissen würden dann nicht mehr in erster Linie zum direkten Konsum durch Menschen erzeugt, sondern als Futter für KI-Modelle, je origineller und wichtiger für das Training, desto wertvoller. Der Rest wäre Hobby oder Kunst.

Fehlentwicklungen werden auch hier nicht ausbleiben. Es könnten sich beispielsweise analog zur SEO-Plage ganze Branchen entwickeln, die für rohe Informationen, aber auch für gewünschte Argumentationsketten die Relevanz für KI-Modelle hochtreiben, mit welchen Methoden auch immer.

So oder so, wenn die KI nicht in Selbstreferenzialität ersticken soll, muss das Problem gelöst werden, und es werden Menschen lösen, keine Sprachmodelle. Und es wird, so viel Technikoptimismus muss sein, hoffentlich kein schlechteres Netz auf den Ruinen des alten entstehen.

Ulrich Wolf

Kommentieren