Ende des Internet?

Wie der "Große Bruder" und die "Großen Medien" den Internet-Geist wieder in seine Flasche einsperren könnten

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

In den letzten zwei Jahren hat sich bei mir eine zunehmend pessimistische Sicht entwickelt, wenn es um die Zukunft von Freiheit und Meinungsfreiheit geht, insbesondere im Zusammenhang mit dem Internet. Dies ist eine völlige Umkehr von dem fast grenzenlosen Optimismus, den ich zwischen 1994 und 1999 fühlte. In dieser Zeit wuchs und gedieh der öffentliche Zugang zum Internet, innovative neue Formen der Kommunikationen tauchten kurz hintereinander auf. In dieser Epoche war ich völlig davon überzeugt, dass der universale Zugang zum Internet eine Waffe war, die die Zentralisierung und Konzentration der Regierungen und der Massenmedien, welche weiterhin die Meinungsfreiheit und den unbegrenzten Zugang zu Informationen einschränken wollten, ausgleichen würde. Zudem könnte das Internet, würde man es vernünftig nutzen, sogar die gemeinsam von Regierungen und Massenmedien betriebenen Einschränkungen der persönlichen Freiheit verhindern, indem Information durch das Internet hinter die Barrieren gelangt, welche totalitäre und autoritäre Regime um die Torwächter der Mainstreammedien errichtet hatten.

So überzeugt war ich von dem Potential des Internet als Mittel zur weltweiten unregulierten und direkten Kommunikation zwischen Personen, dass ich den größten Teil dreier Jahre damit verbrachte, Speak Freely für Unix und Windows zu entwickeln: ein freies (public domain) Internettelefonie-Programm mit einer Verschlüsselung, wie sie auch das Militär nutzte. Warum ich das tat? Weil ich daran glaubte, dass eine Welt, in der jeder mit einem Internetzugang mit irgendjemandem völlig privat und zu einem Bruchteil der Kosten, welches ein herkömmliches Telefonat verschlingt, sprechen könnte, eine bessere Welt wäre als eine Welt ohne eben diese Kommunikation.

Computer und das Internet sind, wie alle Technologien, ein zweischneidiges Schwert: Ob sie die Rahmenbedingungen für Menschen verbessern oder verschlechtern, hängt davon ab, wer diese Technologien kontrolliert und wie sie genutzt werden. Der Großteil der Science Fiction, die Computer behandelte und in den 50er Jahren bis hin zu den Beginnen des Personal Computer in den 70er Jahren geschrieben wurde, beschäftigte sich mit dem potentiellen Aufkommen von Tyranneien (schlimmer als die, die es bisher in der Geschichte der Menschheit gegeben hatte), mit Gesellschaften, die durch zentralistische Computer gesteuert werden, und dem Risiko, dass Computer und zentrale Datenbanken, mit den besten Absichten etabliert, auch unabsichtlich zu der Entstehung einer solchen Dystopie führen könnten.

Das Aufkommen des Personal Computer kehrte diese düsteren Szenarien ins Gegenteil um. Unnachgiebig bewahrheitete sich das Mooresche Gesetz: die Leistung der Computer verdoppelte sich fast alle zwei Jahre, während die Kosten gleich blieben. So war in dieser Zeit damit zu rechnen, dass innerhalb weniger Jahre die Mehrheit der Computer weltweit in den Händen von Individuen wäre. Und tatsächlich - große Organisationen, die bisher ein Fastmonopol auf Computer besaßen, nutzten oft veraltete Geräte, deren Leistung im Vergleich zu denen hinterherhinkte, welche Teenager für Computerspiele nutzten. In weniger als fünf Jahren wurden Computer genauso dezentralisiert eingesetzt wie einst Fernseher.

Aber zwischen einem Computer und einem Fernseher gibt es einen großen Unterschied: Der Fernseher kann nur das empfangen, was von den Sendeanstalten ausgewählt wird. Der Computer aber kann genutzt werden, um Inhalte zu schaffen - Programme, Dokumente, Bilder: Medien jeglicher Art, die mit anderen Computernutzern getauscht werden können (sobald das Problem der Dateninkompatibilität gelöst ist, vielleicht irgendwann in den nächsten fünf Jahrhunderten).

Ein Traum wird Wirklichkeit

Personal Computer, vormals eher isoliert, begannen sich fast sofort eher zum Kommunikationsmittel als zum "Rechner" zu entwickeln - und wahrhaftig ist die Kommunikation, nicht das Rechnen, ihre wahre Bestimmung. Onlinedienste wie CompuServe und GEnie stellten Dateiarchive zur Verfügung, Zugang zu Daten und Diskussionsforen, in denen sich Computernutzer (mit entsprechendem Modem und nach Anmeldung) treffen, kommunizieren und Daten tauschen konnten. BBS (Bulletin Board Systems), FidoNet und UUCP/USENET speicherten dezentralisierte Kommunikation zwischen PC-Nutzern in Form von Mail oder Newsgroups bzw. leiteten diese weiter, was in dem explosiven Wachstum des individuellen Internetzugangs in den späten 90er Jahren gipfelte.

Endlich war der Traum Wahrheit geworden. Individuen auf der ganzen Welt hatten nun die Macht, Informationen jeglicher Art zu erzeugen und auszutauschen und spontan virtuelle "Communities" zu bilden; und dies alles in einer dezentralisierten Form, frei von jeglichen Einschränkungen oder Regelungen (abgesehen von den bereits definierten kriminellen Aktivitäten, bei deren Verfolgung es unerheblich ist, ob sie mit oder ohne Hilfe des Computers begangen wurden).

Die eigentliche Struktur des Internet schien der technische Beweis dafür zu sein, dass Versuche, den "Flaschengeist wieder in seine Flasche zu verbannen", fruchtlos enden würden. "The Internet treats censorship like damage and routes around it." (Diese Beobachtung wird verschiedentlich John Gilmore und John Nagle zugeschrieben; ich möchte hier noch nicht in diese Debatte einsteigen.) Sicherlich, autoritäre Gesellschaften, die fürchteten, die Kontrolle über die der Bevölkerung zur Verfügung gestellten Informationen zu verlieren, könnten den Zugang zum Internet einschränken oder filtern. Aber indem sie dies tun, würden sie gleichzeitig ihre Konkurrenzfähigkeit gegenüber anderen Staaten, welche uneingeschränkten Zugang zu den weltweiten Informationen gewähren, schmälern. Auf jeden Fall hat das Internet, genau wie zensierte Bücher, Videos oder Satellitenschüsseln, genug Wege, um selbst in die unterdrücktesten Gesellschaften vorzudringen, zumindest oberflächlich.

Ohne Zweifel war dieses explosive technische und soziale Phänomen etwas, was die vielen Institutionen, die darin berechtigterweise eine Verringerung ihrer Kontrolle über den Informationsfluss sowie die Möglichkeiten der Interaktion zwischen Menschen sahen, mit Unbehagen erfüllte. Plötzlich war Pressefreiheit nicht nur denen gewährt, die diese bisher als Privileg genossen, plötzlich war sie vielmehr fast allgegenwärtig: Medien und Nachrichten, die bisher lediglich an ein begrenztes Publikum ausgestreut werden konnten (und dies verbunden mit großen Schwierigkeiten und hohen Kosten), konnten jetzt weltweit fast kostenlos zur Verfügung gestellt werden. Sie umgingen dabei nicht nur die Massenmedien, sondern überwanden Grenzen; ohne Zölle, Zensur oder Regulierung.

Um ehrlich zu sein: Natürlich gab es auch Versuche der "Verantwortlichen," die Macht, die sie so plötzlich verloren hatten, wiederherzustellen. Zum Beispiel Versuche, die Verbreitung und/oder Nutzung von Verschlüsselungstechniken einzuschränken, Key Escrow, das Fiasko des Clipper Chips, Inhalte einschränkende Gesetze wie der Computer Decency Act und die erfolgreiche Klage gegen Napster. Aber die meisten dieser Bemühungen scheiterten oder erwiesen sich als ineffektiv, weil sich das Internet "eine Ausweichroute suchte", also andere Wege fand, die begonnene Idee zu vollenden.

Letztendlich war es die Zunahme brauchbarer, internationaler OpenSource-Alternativen zu der kommerziellen Software, die zu garantieren schien, dass Kontrolle über Computer und das Internet außerhalb der Möglichkeiten einer Regierung oder eines Softwareherstellers lag. Jeglicher Versuch, die kommerzielle Software mit mehr Einschränkungen zu versehen, würde OpenSource-Alternativen lediglich verführerischer aussehen lassen und ihre Akzeptanz beschleunigen.

So sah ich die Dinge auf dem euphorischen Höhepunkt meines derzeitigen Optimismus. So wie der Übergang zwischen Ausdehnung und Zusammenziehen in einem Universum mit O größer als 1 ein Beweis dafür war, dass der Urknall nur sehr langsam die Schwelle zu einem großen Zusammenbruch überschritten hat, aber dies durch die Ereignisse immer zwingender wurde. Früher hatte ich gedacht, es würde keinen Weg geben, den "Flaschengeist Internet wieder in seine Flasche zu verbannen". In diesem Essay stelle ich einen Fahrplan für eben diese Einschließung auf. Wahrscheinlich wird dadurch die Voraussetzung für ein politisch autoritäres, intellektuell dunkles Zeitalter geschaffen, das im Ausmaß und in seiner Selbstbewahrung global ist. Es wird eine Entmachtung des Individuum mit sich bringen, die das, was so viele Tyranneien in der Vergangenheit hat zusammenstürzen lassen, wieder auslöscht: Innovation und Mannigfaltigkeit der Gedanken.

Ein Hinweis zu dem Stil, den ich in diesem Artikel verwende: Wie auch in meinem früheren Werk Unicard, werde ich viele der Argumente präsentieren, indem ich die selben Phrasen, die selben kurzsichtigen Ansichten und die selben Kurzschlussurteile verwende, die die Befürworter eben dieser Argumente zweifellos verwenden werden, um damit bei Gesetzgebung und Öffentlichkeit hausieren zu gehen. Ich nutze diese Art Sprache lediglich, um zu demonstrieren, wie zwingend diese Argumente für jedes einzelne Puzzlestück gemacht werden können, das an seinen Platz gelegt wird, ohne jemals das ganze Bild zu offenbaren. Wie schon bei "Unicard" werde ich hierfür wahrscheinlich wieder von um sich schlagenden Halbaffen attackiert werden, die Sätze einfach aus dem Kontext reißen. Sei's drum.

Das Internet für den Verbraucher entsteht

Die ursprüngliche Form des ARPANET, die das Internet geerbt hat, war "Peer to Peer" (also Nutzer zu Nutzer). Ich benutze den Begriff "Peer to Peer" hier nicht als Euphemismus für das Tauschen von Dateien oder andere verwandte Aktivitäten, sondern in seinem ursprünglichen architektonischen Sinne, dass alle Hosts logischerweise gleich sind. Sicherlich unterscheiden sich die Verbindungen zum Internet in Bezug auf Bandweite, Verfügbarkeit und Zuverlässigkeit, aber abgesehen von diesen physischen Eigenschaften kann jede Maschine, die mit dem Internet verbunden ist, als Client oder Server dienen. Oder weder noch - in diesem Fall lediglich als Knotenpunkt für die Maschinen, mit denen sie kommuniziert. Jeder Internethost kann den anderen Hosts jegliche Dienste anbieten und seinerseits ihre Dienste nutzen. Neue Dienste können, sofern benötigt, entwickelt werden, die nur zu den oberen Protokollschichten (so wie TCP und ADP) kompatibel sein müssen.

Wegen dieser Architektur war das Internet etwas, was in der Geschichte der Menschheit in dieser Form noch nie dagewesen war: das erste "Many-to-many"-Medium. Ich will das noch ein wenig ausführen. Technische Neuerungen in Bezug auf Kommunikation ließen sich seit den Printmedien in zwei Kategorien einteilen. Die erste Kategorie - hier seien exemplarisch die Printmedien (Zeitungen, Magazine, Bücher) sowie Radio und Fernsehen genannt - waren die "One-to-many"-Massenmedien. Die Anzahl der Sender (Verleger, Radio- und Fernsehstationen) war im Vergleich zu der der Sender winzig und die hohen Kosten, die man aufbringen musste, um eine neue Publikation auf den Markt zu bringen oder eine Sendestation zu finanzieren, stellten eine erhebliche Barriere für Novizen dar.

Die zweite Kategorie, zum Beispiel die klassische Post, Telegramme oder auch das Telefon, war das "One-to-one"-Medium. Man konnte (sobald die jeweilige Technik aus den Kinderschuhen herauskam) mit fast jedem weltweit kommunizieren, welcher in der Lage war, den gleichen Dienst zu nutzen, die Kommunikation lief dabei aber auf Person-zu-Person-Basis ab: Punkt zu Punkt. Vor dem Internet hatte kein anderes Medium das Potential, jedem Individuum die Möglichkeit zu geben, einem globalen Publikum Material zu präsentieren. (Natürlich - wenn jemand eine Webseite erstellt, die ein großes Publikum anzieht, sind die Kosten für Bandbreite und Hosting unter Umständen beträchtlich; im Vergleich zu dem Kapital, das man benötigt, um eine gedruckte Publikation oder aber eine Sendestation zu finanzieren, die ebenso viele Menschen erreicht, sind sie jedoch vernachlässigbar.)

Dies hatte den Effekt, dass die traditionellen Barrieren um die "Arena der Ideen" abgebaut wurden. Das Spielfeld wurde sozusagen dermaßen vergrößert, dass ein Einzelner nunmehr ein so großes Publikum für seine Arbeit begeistern konnte, wie es zuvor lediglich den großen, fest in den früheren Medien verwurzelten, Großunternehmen möglich gewesen war; nur durch seine Leistung und Mund-zu-Mund Propaganda.

Weit über die direkte Analogie zum Rundfunk hinausgehend erlaubte die Peer-to-Peer-Architektur des Internet, völlig neue Medienformen zu kreieren - Diskussionsforen, Archive für wissenschaftliche Vorabdrücke, Weblogs mit der Möglichkeit der Kommentierung durch Leser, gemeinsames Entwickeln von Open Source Software, Audio- und Videokonferenzen, Onlineauktionen, das Tauschen von Musikdateien, offene Hypertextsysteme und eine Vielzahl von anderen, spontanen menschlichen Interaktionen.

Wiederherstellung der traditionellen Rollenverteilung

Ein derart profunder Wandel, der sich in weniger als einem Jahrzehnt vollzog (obwohl das ARPANET bis in die 70er Jahre zurückgeht, war es erst das von dem großen Publikum begeistert aufgenommene Internet der 90er Jahre, das dazu führte, das die soziale und wirtschaftliche Bedeutung des neuen Medium signifikant wurde), muss für jene, die bisher ihre Kommunikationsstrategie auf die traditionellen Medien aufgebaut hatten (oder die in diese Medien investiert hatten), zweifellos ungemütlich erscheinen. Man brauchte keine Verschwörungstheorien, um zu bemerken, dass viele Zeitungen, Musik Labels und Regierungen eine gewisse Nostalgie in Bezug auf die gute alte Zeit vor dem Internet verspürten. Damals, als es noch Produzenten (Verleger, Sender, Telefondienste) und Konsumenten (Abonnenten, Buch- und Plattenkäufer, Fernsehzuschauer und Rundfunkhörer) gab, wusste noch jeder, wo sein Platz war. Regierungen mussten sich weder Gedanken über in Massen und unüberwacht die Grenzen überquerende Daten noch über rebellische Gruppierungen machen, die sich versammelten, anonym und sicher kommunizierten und außerhalb des Blickfeldes und der Kontrolle durch traditionelle Staatssicherheitsorgane operierten.

Trotz der "Ankunft" des Internet bauten die traditionellen Medien und die Regierungen ihre weitreichende Macht weiter aus. Was nicht verwunderlich ist, da jede Organisation versuchen wird, ihre Macht zu festigen und auszubauen, und den Machtzerfall nicht einfach passiv hinzunehmen. Tatsächlich bot die Zusammenarbeit zwischen den Firmen, die die Netzinfrastruktur bereitstellten, und der zunehmenden Überwachung von Aktivitäten im Netz durch die Regierung das Potential um "Kontrollpunkte" im einst dezentralisierten Netz zu errichten. Diese Kontrollpunkte können für jeden beliebigen Zweck genutzt werden, den diejenigen, die sie errichteten, im Hinterkopf haben.

Der Trend scheint klar zu sein: innerhalb der nächsten fünf bis zehn Jahre werden wir sehen, wie der "Flaschengeist Internet wieder in seine Flasche zurückgezwungen werden soll", um die traditionelle Rollenverteilung (Produzent/Konsument, Regierung/Individuum) wiederherzustellen , die das Internet unterbrochen hatte.

Technologien, die entweder bereits existieren oder aber zur Zeit vervollständigt werden, können, sofern großflächig eingesetzt, das klassische Produzent/Konsument Modell im Internet etablieren und somit jene zentrale Kontrolle wiederbringen, die die traditionellen Medien und die Regierungen durch das Internet in Gefahr sahen. Jede dieser erforderlichen Technologien kann dadurch begründet werden, dass sie akute Probleme des derzeitigen Internet löst. Es ist damit zu rechnen, dass sie als diese "Lösung" auch beworben und etabliert wird. Im nächsten Teil werden wir uns mit diesen "technischen Wegbereitern" befassen.

John Walker, Mitbegründer von Autodesk Inc., Programmierlegende und früher Internetbegeisterter, lebt nach dem Rückzug aus dem Unternehmen in der Schweiz. Auf seiner Homepage bietet er neben der bekannten Hackerdiät, die trotz des eher amüsanten Namens durchaus ernst zu nehmen ist, eine Mischung aus Science-Fiction-Geschichten, wissenschaftlichen Abhandlungen und Programmen (wie dem "Anagram Finder") an. Bei seinem im September 2003 geschriebenen Text "The Digital Imprimatur" geht es um eine nahe mögliche Zukunft. Walker will zeigen, wie durch Digital Rights Management, Trusted Computing, Zensur und Überwachung das Internet seiner Möglichkeiten als demokratisches und weltumspannendes Kommunikationsinstrument zunehmend beraubt werden kann. Ein notwendiger Überblick über technische Entwicklungen, die die Netzkultur zutiefst verändern können.

Der Text ist eine autorisierte Übersetzung, das Original hat John Walker auf seiner Website veröffentlicht. Übersetzung von Twister und Jürgen Buchmüller.