Konvergenz und Vielcomputerei
Immer mehr immer unterschiedlichere digitale Geräte und Gadgets umgeben uns, der Trend zum Dritt-und Viertrechner scheint ungebrochen. Oder ist da vielleicht etwas ganz anderes im Gange?
- Peter Glaser
Immer mehr immer unterschiedlichere digitale Geräte und Gadgets umgeben uns, der Trend zum Dritt-und Viertrechner scheint ungebrochen. Oder ist da vielleicht etwas ganz anderes im Gange?
Als in den 50er Jahren in den Rechenzentren die ersten Bildschirmterminals eingeführt wurden, wehrten sich altgediente Programmierer dagegen. Sie waren es gewohnt, ihren Code auf Papier zu entwerfen, konnten ihn blindlings in eine Lochkartenstanze eingeben und holten sich die Ergebnisse eines Rechenlaufs ein paar Stunden später, von einem lärmenden Kettendrucker neuerlich zu Papier gebracht, wieder ab. Sie fühlten sich von Bildschirmen bei ihrer Arbeit gestört.
Als Bildschirmmedium per se galt das Fernsehen. In den 70ern war es nicht mehr ungewöhnlich, dass jemand mehr als einen Fernseher besaß. Die Geräte wurden kleiner, billiger und es gab mobile Versionen, mit denen man auch auf dem Campingplatz fernsehen konnte. Der Mensch, der mehr als einen Bildschirm vor sich hat, wurde zum inbildlichen Bewohner dessen, was Marshall McLuhan "das globale Dorf" nannte. 1976 spielte David Bowie in dem Science-Fiction-Film "Der Mann, der vom Himmel fiel" einen Außerirdischen, dessen übermenschliche Auffassungsgabe daran zu erkennen ist, dass er vor einer Wand aus eingeschalteten Fernsehern sitzt und alle Informationen gleichzeitig aufsaugt.
Dann begann die PC-Revolution und alles fing wieder von vorn an, mit einem Bildschirm (und einem Computer). Die Vorstellung, als privates Individuum mehrere dieser Geräte zu besitzen, war abwegig. Dann begannen die technischen Generationswechsel und es kam öfter vor, dass ein alter und ein neuer Computer gleichzeitig in Betrieb waren. Der eine wurde dazu degradiert, visuell ansprechende Fraktale zu berechnen. Der andere war die Zukunft.
Anfang der 90er Jahre ging die Welt online. Bald fühlte es sich in der Sphäre der Vernetzung an, als habe man nicht mehr nur einen oder zwei Rechner zur Verfügung, sondern Abertausende, dann Abermillionen. Die Hardware wurde immer schlanker, billiger und leistungsfähiger. Mit den Mobiltelefonen stieß man noch in der Prä-Smartphone-Ära erstmals an Grenzen. Handys wurden so klein, dass sie kaum noch zu bedienen waren. Hätte man, technisch kein Problem, die Geräte weiter miniaturisiert, wären sie vollends unbedienbar geworden. Inzwischen legen die Smartphones wieder an (Display-)Fläche zu, denn nach wie vor ist der Mensch das Maß seiner Dinge. Tasten, die man mit einer Fingerspitze nicht mehr genau treffen kann, sind Undinge; andererseits schrumpfen die Tablets, ihrerseits bereits eingeschnurrte Laptop-Bildschirme, zu neuen Kleinformaten. Demnächst werden sie sich in der Mitte treffen.
Wir haben nun also einen immer weiter ausdifferenzierten Fächer an Gadgets und digitaler Gerätschaft für alle Gelegenheiten, mit einer Leistungsfähigkeit, die vor 20 Jahren für den großindustriellen Einsatz ausgerecht hätte. Vor allem haben wir immer mehr Geräte, die alle kleine Rechner sind und die wir oft gar nicht mehr als Rechner wahrnehmen. Als sich das Internet vor zwanzig Jahren in der Öffentlichkeit auszubreiten begann, gab es lange Diskussionen um den Begriff Konvergenz. Immer mehr bisher isolierte Technologien und Medien wurden ins Digitale übergeführt. Aus dem Computer wurde eine Art Hyperchamäleon, das sich mühelos in eine Schreibmaschine, ein Klavier oder einen Flugsimulator und tausend andere Dinge verwandeln konnte. Konvergenz sollte heißen: Alles läuft auf den Computer hinaus.
"Der Computer wird den Begriff der Medien in der Mehrzahl einkassieren und zum Medium schlechthin werden", wie es der Mediendenker Friedrich Kittler ausdrückte. Es gab diffuse Vorstellungen einer Black Box, die alles kann – rechnen, Fernsehprogramme zeigen, Internet, Musik – alles. Und es gab Gegenstimmen. Fortschritt bedeutet immer eine Zunahme an Unterschieden. Wenn ich auf dem Sofa liege und berieselt werden möchte, ist ein Fernseher ideal; wenn ich am Netz teilnehmen möchte, ein Rechner; wenn ich unterwegs bin, ein Laptop oder ein Smartphone. Wenn ich außer Haus bin, werde ich nicht mein MacBook im Rucksack mit mir herumschleppen, nur um Musik zu hören.
Da ich längst fast alles Arbeits- und Unterhaltungsnötige im Rechner bequem an einem Ort versammelt habe, vernachlässige ich inzwischen allerdings sogar meine alte, hervorragende Musikanlage. Obwohl sie eine merklich bessere Tonqualität liefert, gebe ich mich mit der schlichten Stereophonie am Rechner zufrieden. Für manche Techniken bedeutet die Digitalisierung, dass sie einfach verschwinden oder sich wie Zucker in warmem Wasser in den Bequemlichkeiten des Online-Universums auflösen. Manche würden gern verschwinden, können es aber nicht, siehe Mobiltelefone.
Der Trend geht nicht einfach nur zum Viert-Computer, sondern zu Maschinenwolken, die uns künftig umgeben werden. Und damit ist nicht nur die virtuelle weltweite Speicher-Wolke gemeint, sondern Konzepte wie der am MIT entwickelte "Smart Dust". Winzige Partikel, die so etwas wie sehr einfache, sehr kleine Computermodule sind. Bei Bedarf sollen sich einzelne Partikel zu größeren, je nach Problemlage leistungsfähigeren Einheiten zusammenschließen können und nach erledigter Arbeit wieder zu Staub zerfallen. Wo dann ein Computer ist und wo keiner, wird dann ebenso schwer zu beantworten sein wie die Frage, mit wie vielen Maschinen man gerade umgeht.
Lesen Sie hierzu auch in der neuen Ausgabe von Technology Review unseren Schwerpunkt zum Thema Design: Wie uns Maschinen immer näher rücken und Designer diese Nähe gestalten. Das Heft können Sie hier online bestellen. (bsc)