RĂĽckschritt und Enshittification: Darum wird Technik nicht stetig besser

Neue Technikgenerationen sind nicht automatisch besser als ihre Vorgänger. Wer die Hintergründe analysiert, erkennt, dass oft Absicht dahinter steckt.

Artikel verschenken
vorlesen Druckansicht 28 Kommentare lesen

(Bild: KI, Collage c’t)

Lesezeit: 17 Min.
Von
Inhaltsverzeichnis

Die Gesetzmäßigkeit, die Intel-Mitgründer Gordon Moore schon 1965 beschrieb, enthält das große Versprechen der IT. Er postulierte in Moore’s Law, dass sich die Anzahl der Transistoren pro Chip etwa alle zwei Jahre verdoppeln werde. Was damals utopisch klang, war rückblickend fast prophetisch und die Rechnung ging jahrzehntelang erstaunlich genau auf: Prozessoren wurden und werden durch neue Fertigungstechnik pro Fläche immer leistungsfähiger oder bei gleichbleibender Rechenleistung zumindest preisgünstiger, und nebenbei auch effizienter. Immer schnellere Computer für weniger Geld, das würde unweigerlich zu paradiesischen Zuständen für alle führen, die sie nutzen. Doch das passt nicht so recht zu den Erfahrungen, die jeder täglich mit Computern macht: Die Chips werden zwar unbestritten schneller, die allgemeine Zufriedenheit mit Computern wächst aber nicht in gleichem Maße. Ärgernisse verschwinden nicht, ihre Art änderte sich lediglich.

Liegt es also an der Software, dass Digitaltechnik nicht stetig besser wird? Dem widerspricht einiges, denn wer heute Software schreibt, steht auf den Schultern von Riesen. Gemeint ist die ungeheure Menge an Vorarbeiten, die Generationen von Entwicklern zuvor geleistet haben: Einerseits sind da Protokolle und standardisierte Schnittstellen, um deren Pflege und Weiterentwicklung sich teils große und professionelle Stiftungen und Standardisierungsgremien kümmern. Andererseits gibt es unter Open-Source-Lizenzen veröffentlichte Software-Meisterwerke – vom Linux-Kernel bis zu Bibliotheken und Frameworks in jeder erdenklichen Programmiersprache, die fast jedes exotische Problem schon gelöst haben. Wer heute beispielsweise eine Software schreiben will, die To-Dos verwalten soll, muss sich ausschließlich um genau das kümmern, was die eigene Anwendung von allen anderen schon geschriebenen Programmen unterscheidet. Nicht darum, wie ein Computer Tastatureingaben annimmt, wie er die Inhalte speichert, nicht mal, wie man sie über Netzwerk oder das Internet verschickt, auf Servern entgegennimmt und dort verarbeitet. Es gibt bereits sichere und stabile Übertragungsprotokolle, Formate für strukturierte Daten und ausgereifte Datenbanken. Kurz: Noch nie zuvor war es angesichts der schieren Menge schon gelöster Probleme so einfach wie heute, gute Software zu schreiben.

Enshittification: Nachteilige Produktentwicklung

Wenn Hardware immer schneller und Software immer ausgereifter wird, warum wird Technik dann nicht ganz automatisch immer besser? Ein dritter Faktor rückt in den Fokus der Spurensuche: der Markt. Produkte entstehen nicht im luftleeren Raum, sie müssen in der Regel gewinnbringend verkauft werden, also über ihre Lebenszeit mehr einspielen als Entwicklung und Pflege kosten. Sollten es wirklich Marktmechanismen sein, die den Zugang zum digitalen Paradies versperren? Dieser Fragen gehen wir in diesem und den folgenden Artikeln nach. Wir untersuchen, warum Hersteller von Hard- und Software teils konträr zu den Interessen ihrer Kunden handeln und – zumindest nach ihren Maßstäben – manchmal ausgerechnet damit erfolgreich sind. Dafür haben wir Beispiele zusammengetragen, die solche Mechanismen veranschaulichen. In einem weiteren Artikel erfahren Sie, wie Sie und der Gesetzgeber sich gegen unlautere Praktiken wehren können.

Das war die Leseprobe unseres heise-Plus-Artikels "Rückschritt und Enshittification: Darum wird Technik nicht stetig besser". Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.