Offene Geheimnisse
Die Softwarebranche als Laboratorium der Zukunft: Die Open-Source-Praxis entwickelt historisch neue Organisations- und Rechtsformen und damit Modelle fĂŒr eine Ăberwindung der industriellen Ordnung.
Aus der Open-Source-Geschichte lernen (Teil 1): von der SelbstermÀchtigung der Anwender in den 60er Jahren zur entorteten Echtzeit-Produktion der 80er Jahre
Mehrere Jahrzehnte, nachdem sie begann, geriet die globale Vernetzung Mitte der neunziger Jahre plötzlich ins öffentliche Bewusstsein - als reine GeschĂ€ftsgelegenheit. Der raketengleiche Aufstieg der dot.coms, fĂŒr den Netscapes Börsenerfolg im August 1995 den Startschuss gab, und die nicht minder spektakulĂ€ren Bruchlandungen fĂŒnf, sechs Jahre spĂ€ter verdecken im breiten Bewusstsein eine simple Wahrheit: dass die Konstruktion des globalen Datenraums wahrlich nicht das Werk geschickter GeschĂ€ftsleute war. Nicht nur der PC musste geradezu gegen den Widerstand der Konzerne durchgesetzt werden. Auch das Software-Fundament des Internet legten keineswegs kommerzielle Entwickler, sondern technisch begeisterte MĂ€nner (und wenige Frauen) - Programmierer und Techniker, Professoren und Studenten -, die sich das Ergebnis ihrer Brillanz nicht im Interesse individuellen Profits patentieren lieĂen.
Ăber Jahrzehnte hinweg stellten sie die Ergebnisse ihrer Arbeit gratis und samt Quellcode zur VerfĂŒgung. Mit dieser Form der Veröffentlichung ihrer Programme sorgten sie dafĂŒr, dass ihre Werke fĂŒr andere nicht nur benutzbar, sondern les- und verĂ€nderbar waren. Im offenen, durch kein Copyright behinderten Austausch der Experten konnte so die Software perfektioniert werden. Diese Zehntausende von digitalen Handwerkern und Bastlern, denen es primĂ€r nicht um Tausch-, sondern Gebrauchswert ging, schreibt Jon Katz, Slashdots einflussreicher Medienkritiker, waren âdie wahren Architekten der neuen Ăkonomieâ. Auf ihren kollektiven, dem Gemeinbesitz ĂŒberantworteten Kreationen beruhen bis heute die wichtigsten Programme, die das Internet am Laufen halten, unter anderem Sendmail, Bind, Apache, Perl, Python. Die Bedeutung von Offenheit demonstriert das Internet zudem ĂŒber reine Software hinaus. TCP/IP, das offene Basisprotokoll des Netzes, hat mittlerweile proprietĂ€re Protokolle wie IPX oder NetBEUI fast völlig verdrĂ€ngt. Nahezu alle Standards und Protokolle liegen als RFCs (Requests For Comment) vor und verdanken ihre Existenz öffentlichen Diskussionen.
Auch das heute zentrale HTTP entwickelte Tim Berners-Lee in einem offenen Prozess, zu dem viele beitrugen. Nicht mit allen Namen und KĂŒrzeln wird jeder auf Anhieb deren exakte Funktion und vor allem deren genaue Entstehungsgeschichte verbinden können. Die Details sind freilich in diesem Zusammenhang nicht entscheidend [1 [1]]. Es reicht, sich ihre grundsĂ€tzliche Bedeutung zu vergegenwĂ€rtigen, etwa in einem Bild analoger Technik: Benutzte der Datenverkehr die Eisenbahn, so erfĂŒllten Weichen, Stellwerke, Signale und FahrplĂ€ne Ă€hnliche Funktionen.
Gar nichts also ginge ohne diese Software, deren Quellcode eben kein GeschĂ€ftsgeheimnis ist - weshalb sich Ende der neunziger Jahre fĂŒr sie der Begriff Open Source einbĂŒrgerte. Das Programm Sendmail etwa lĂ€uft auf 80 Prozent aller Mailserver, kaum eine elektronische Post, die auf ihrem verschlungenen Weg vom Sender zum EmpfĂ€nger nicht mit diesem Gratis-Code in BerĂŒhrung kĂ€me. Ebenso abhĂ€ngig sind Surfen im WWW und E-Commerce von freier Software: Im August dieses Jahres waren 60,5 Prozent aller Webserver freie Apaches, wĂ€hrend Microsofts Closed-Source-Angebot Internet Information Server (IIS) mit 27,9 Prozent abgeschlagen auf Platz zwei dĂŒmpelte.
Mehr noch bedroht Linux den Redmonder Softwarekonzern: Binnen eines Jahrzehnts stieg, was mit 10 000 Programmzeilen eines Studenten begonnen hatte, zu einem Kollektivschatz von ĂŒber 100 Millionen Codezeilen auf - allein der Betriebssystemkern umfasst 3,5 Millionen Zeilen. Nach den ĂŒblichen Tarifen der Branche stellen sie einen Investitionswert von mehreren Milliarden Dollar dar. Eine zweistellige Millionenzahl von Nutzern hat zudem Linux weltweit zum zweitbeliebtesten Server-Betriebssystem werden lassen.
Die Infragestellung des Industrialismus
Beinahe-Monopolist Microsoft hat die Open-Source-Bewegung denn auch als Gefahr erkannt. UnablĂ€ssige Abwehrversuche zeugen davon: Die berĂŒchtigten âHalloween Papersâ, die 1998 an die Ăffentlichkeit gerieten, ebenso wie CEO Steve Ballmers Reden, in denen er Linux im Januar als âBedrohung Nr. 1â und im Juni als âKrebsgeschwĂŒrâ charakterisierte, oder die Angriffe von Senior Vice President Craig Mundie, der Anfang Mai die Open-Source-Praxis fĂŒr âungesundâ und zum âSicherheitsrisikoâ erklĂ€rte. Vor allem Ratlosigkeit spricht aus den Attacken: Nicht nur ist die ungeplante, in globaler Kooperation hergestellte Software derjenigen qualitativ ĂŒberlegen, die in den ĂŒblichen bĂŒrokratisch-hierarchischen Verfahren gelingt. Obendrein versagen die ĂŒblichen Methoden der Konkurrenzabwehr, mit denen Konzerne wie Microsoft ĂŒber die Jahrzehnte so erfolgreich waren. Denn der neue Gegner ist zugleich allgegenwĂ€rtig und unfassbar; was unter anderem heiĂt: nicht firmenweise aufkaufbar.
Open-Source-Software bedeutet so eindeutig mehr als eine Konkurrenz unter anderen. Sie ist Teil eines Trends, einer historischen Bewegung. Von digitaler Technik ermĂ€chtigt, operieren die Open-Source-Projekte nach gĂ€nzlich neuen Gesetzen. Indem sie erstmals aus den digitalen Technologien angemessene Konsequenzen fĂŒr die Arbeitsorganisation ziehen, stellen sie nichts weniger als die etablierte Ordnung industrieller Produktion in Frage. Zu den Wettbewerbsvorteilen, die ihre neue Praxis dem Bruch mit den Traditionen verdankt, zĂ€hlen beschleunigtes Entwicklungstempo, gesteigerte FlexibilitĂ€t in der Produktion sowie ĂŒberlegene QualitĂ€tskontrolle. Sie vor allem sorgt fĂŒr hohe StabilitĂ€t der Produkte wie fĂŒr deren Angepasstheit an spezifische NutzerbedĂŒrfnisse.
Der Erfolg der Open-Source-Bewegung beruht daher keinesfalls nur darauf, dass die in ihrem Kontext hergestellte Software am Ende gratis oder zumindest vergleichsweise billig abgegeben wird. Von weitreichenderer Bedeutung als dieser eher beilÀufige Umstand sind strukturelle Innovationen. Sie betreffen zwei grundsÀtzliche Bereiche der industriellen Ordnung: die Arbeitsorganisation und die Regelung geistigen Eigentums.
Zum einen weist die Open-Source-Praxis mit den Prinzipien freiwilliger Assoziation und Selbstorganisation, wie selbst Forbes erkannte, âeinen alternativen Weg, bessere Software zu produzierenâ. Das ist nicht wenig, da die Softwareindustrie inzwischen weltweit fast anderthalb Millionen Menschen beschĂ€ftigt und ĂŒber 175 Milliarden Dollar Umsatz erzielt. Doch die Bedeutung der Neuerungen geht ĂŒber den Bereich der Softwareherstellung hinaus. Seit der Industrialisierung pflegen von Innovationsdruck getriebene SchlĂŒsselbranchen Verfahren zu entwickeln, die spĂ€ter das gesamte Wirtschaftsleben beeinflussen. Richtungsweisende Beispiele dafĂŒr waren etwa zu Anfang des 20. Jahrhunderts die Taylorisierung bis hin zur EinfĂŒhrung des FlieĂbands, die von der Autoindustrie ausging, oder aber ab der Jahrhundertmitte die generelle Ăbernahme industrieller Technologien und Arbeitsprinzipien in die Agrarwirtschaft.
Was zu industriellen Zeiten fortschrittlich war und auf nahezu alle Bereiche der Produktion, selbst auf Verwaltung, Schulen und UniversitĂ€ten abfĂ€rbte - hierarchisch-zentralistische Kontroll- und Kommandostrukturen, die auf inhaltliche wie zeitliche Fremdbestimmung von jedermanns Handeln zielen -, bremst heute freilich die gesteigerten produktiven und kreativen Möglichkeiten digitaler Technologien. Eine Ă€hnliche Pionierrolle, wie sie einst die Autoindustrie in der Ăberwindung handwerklicher und agrarischer Organisationsformen der Arbeit erfĂŒllte, fĂ€llt daher nun der Hard- und Software-Branche zu. Die Geltung ihrer Organisations- und Eigentumsmodelle, schreiben etwa Don Tapscott und David Ticoll, Autoren von âDigital Capital: Harnessing the Power of Business Websâ, âist keineswegs auf die Einsen und Nullen von Software beschrĂ€nkt. Mit der Durchsetzung des Internet können geschickte Firmen aus vielen Aspekten der Open-Source-Philosophie Gewinn ziehen, um sich Wettbewerbsvorteile in der Entwicklung auch von handfesten Produkten wie einem neuen Auto zu verschaffen.â
Der zweite Bereich struktureller Innovation betrifft die Neuregelung geistigen Eigentums unter Bedingungen kollektiver Produktion und vernetzter Distribution. Das geltende Urheber- und Patentrecht, dessen Prinzipien der FrĂŒhzeit der Industrialisierung verpflichtet sind, kollidiert praktisch wie ethisch mit dem Potenzial digitaler Technologien. An den Modifikationen der veralteten juristischen Rahmenbedingungen, ĂŒber die gegenwĂ€rtig weltweit gestritten wird, hĂ€ngen wesentlich das Tempo und auch die Richtung der weiteren digitalen Modernisierung. In keinem anderen Bereich immaterieller Produktion ist die Suche nach alternativen Eigentums- und Rechtsformen so weit fortgeschritten wie in der Open-Source-Praxis. Besonders wegweisend sind ihre AnsĂ€tze fĂŒr die Besitzregelung im Falle kollektiver Arbeiten, deren einzelne Bestandteile separat nicht verwertbar sind und die unter den gegenwĂ€rtig ĂŒblichen Bedingungen von Einzelnen - juristischen oder natĂŒrlichen Personen - als geistiges Kapital vereinnahmt und damit sowohl ihren eigentlichen Schöpfern wie der Ăffentlichkeit entzogen werden.
Die Open-Source-Bewegung operiert so an der vordersten Front der Digitalisierung. Das bringt sie zwangslĂ€ufig in Widerspruch, wie Steven Johnson bereits 1998 in Feed schrieb, âzu politischen Werten, die in einem entschieden anderen Kontext entstanden, als Ressourcen knapp waren und Informationen nur langsam ĂŒbermittelt werden konnten. Ăber die Open-Source-Politik in Kategorien der traditionellen politischen Taxonomie zu sprechen ist, als benutze man die Anatomie von SĂ€ugetieren, um den Atemapparat von Fischen zu erklĂ€ren: Es gibt gewisse Gemeinsamkeiten, aber die zugrunde liegende Struktur ist so unterschiedlich, dass es besser ist, man definiert alle Begriffe von Grund auf neu.â
Nachvollziehbar, wenn auch umso bedauerlicher sind daher die immer noch begrenzte Aufmerksamkeit und vor allem das geringe VerstĂ€ndnis, das diese neue Praxis unter Computernutzern, in der GeschĂ€ftswelt und erst recht in der breiten Ăffentlichkeit findet. Denn die Open-Source-Verfahren stellen in der Tat die industrielle Ordnung der Dinge in Frage. Sie betreiben die Aufhebung dessen, was der Soziologe Manuel Castells Industrialismus nennt, und laufen auf eine AuĂerkraftsetzung des Ăberholten wie zugleich die Bewahrung zukunftstrĂ€chtiger Traditionen auf einem entwickelteren, zeitgemĂ€Ăeren Niveau hinaus.
Von Open Source fĂŒr die Zukunft lernen
In den sich dabei ausbildenden innovativen Organisationsstrukturen, Managementverfahren und Eigentumsregelungen erscheinen die Konturen einer neuen, digitalen Ordnung. Die Open-Source-Praxis erprobt Arbeits-, Verkehrs- und auch Rechtsformen, die erhebliche ProduktivitĂ€ts- und Wettbewerbsvorteile bieten und eher frĂŒher als spĂ€ter andere Branchen erfassen dĂŒrften. Von dem Vorbild der Open-Source-Bewegung lĂ€sst sich insofern einiges fĂŒr die Zukunft lernen. Voraussetzung freilich fĂŒr eine gelungene Ăbertragung auf beziehungsweise Adaptation an die spezifischen Erfordernisse anderer Bereiche ist ein besseres VerstĂ€ndnis des historischen Weges, der in den vergangenen vier Jahrzehnten die Open-Source-Bewegung von den RĂ€ndern der Gesellschaft in ihr Zentrum fĂŒhrte.
Bis vor kurzem war die Geschichte der Bewegung ungeschrieben und allein innerhalb der Free-Software-Zirkel selbst als individuelles Erfahrungswissen ihrer Veteranen gespeichert. In den zurĂŒckliegenden Monaten jedoch erschienen nun, ermuntert durch die steigende PopularitĂ€t und den noch schneller wachsenden wirtschaftlichen Erfolg von Linux, eine Flut von Publikationen, deren Spektrum von wissenschaftlichen Studien ĂŒber journalistische Zeitgeschichte und Manifeste bis zu Autobiographien von SchlĂŒsselfiguren reicht [2 [2]].
Bei allen SchwĂ€chen - mancher Veröffentlichung merkt man die Hast an, mit der sie auf den gerade gĂŒnstigen Markt geworfen wurde - bieten diese jĂŒngsten Untersuchungen erstmals einen kompletten Ăberblick ĂŒber die Entstehungsgeschichte, die Motive von SchlĂŒsselfiguren und den Zusammenhang zwischen technologischem Entwicklungsstand und sozialer Dynamik. Als Gesamtbild ersteht aus ihnen die Ansicht von der Open-Source-Bewegung als einem Laboratorium der digitalen Zukunft. Im Hinblick auf eine solche avantgardistische AllgemeingĂŒltigkeit der bisherigen Open-Source-Praxis ragen sechs grundsĂ€tzliche Innovationen heraus.
Prinzip 1
Die SelbstermÀchtigung der Anwender
Einem BedĂŒrfnis vor allem verdankt die Bewegung ihre Entstehung: dem Interesse einzelner Anwender - Techniker wie Endverbraucher -, begrenzende Fremdbestimmung und bestehende AngebotsmĂ€ngel zu ĂŒberwinden. Gestrebt wird nach weitgehender SouverĂ€nitĂ€t im Umgang mit Produkten, die professionell oder privat wichtig sind. Welche Art freier Software in der Vergangenheit entstand, hing insofern stets vom Stand der Technik ab und von den zeitgenössischen Varianten unzulĂ€nglicher oder unerschwinglicher kommerzieller Produkte oder auch behindernder institutioneller Arrangements. Sie zu ĂŒberwinden, bildeten sich die wechselnden losen Assoziationen.
Die AnfĂ€nge der Produktion freier Software gehen auf die Zeit der Mainframes zurĂŒck. Damals litten Ingenieure, Programmierer und erste Studenten des neuen Fachs Informatik unter der UnfĂ€higkeit zur interaktiven Nutzung der wenigen teuren Computer. Rechenzeit war kostbar, und das ĂŒbliche Verfahren, optimalen Einsatz zu gewĂ€hrleisten, bestand im batch processing durch MittelsmĂ€nner. Gegen diese behindernde Form des indirekten und zeitversetzten Umgangs taten sich an US-UniversitĂ€ten unzufriedene Nutzer zusammen, um terminalzentrierte Time-Sharing-Verfahren zu entwickeln. Sie ermöglichten zum ersten Mal Normalsterblichen den direkten Kontakt mit Computern. Die Erfahrungen, die damals von einer ganzen Generation von frĂŒhen Anwendern gewonnen wurden - mit einfacheren Programmiersprachen wie mit ersten Computerspielen -, markieren den Anfang populĂ€rer Computerkultur. Diese von Nutzern entwickelte Software legte die technische wie soziale Basis fĂŒr die Entwicklung des PCs in den siebziger Jahren und damit fĂŒr die digitalen GrĂŒnderjahre.
Bereits in dieser FrĂŒhphase, ein Vierteljahrhundert, bevor der Begriff Open Source ĂŒberhaupt geprĂ€gt war, schĂ€lte sich so die vielleicht wichtigste Lehre der Bewegung heraus: Nichts beschleunigt technischen und dann auch ökonomischen Erfolg so sehr wie die Einbeziehung derjenigen, die mit den jeweiligen Produkten arbeiten und leben mĂŒssen. Umgekehrt jedoch behindern verhĂ€rtete GleichgĂŒltigkeit von GroĂinstitutionen und kurzsichtiger Eigennutz von Firmen einen Fortschritt, der gerade diesen Institutionen und Firmen beachtlichen Nutzen bringt, wenn er nur von engagierten Nutzern erst einmal durchgesetzt worden ist.
Die SelbstermĂ€chtigung der Anwender in der Open-Source-Bewegung lĂ€sst heute erkennen, was die industrielle Praxis und die von ihr geprĂ€gte MentalitĂ€t lange verbargen. âDie normale Forschungsliteratur konzentriert sich auf die Entwicklung von Innovationen als etwas, was allein Hersteller betreibenâ, sagt Eric von Hippel, Ăkonom an der Sloan School of Management des MIT und Autor von âSources of Innovationâ. Von Hippels Forschungen ergaben, dass Verbraucher und Anwender schon immer fĂŒr einen wesentlichen Teil aller Neuerungen verantwortlich waren: âNutzer entwickelten viele, wenn nicht die meisten der wichtigen Innovationen, etwa auf dem Feld der Halbleiterherstellung, bei wissenschaftlichen Instrumenten und auch im Bereich der KonsumgĂŒter, von Kuchen und Keksen ĂŒber KleidungsstĂŒcke bis zu Sportartikeln.â JĂŒngste Beispiele sind MĂŒsliriegel oder Skateboards.
Unter analogen VerhĂ€ltnissen freilich bestand - wollten Verbraucher ihre eigenen Interessen durchsetzen - nur die Wahl zwischen zwei Extremen. Einzelne konnten in individueller Heimarbeit ein bestehendes Produkt verbessern oder neu konstruieren. Oder sie konnten versuchen, gegen den institutionellen Widerstand beziehungsweise die GleichgĂŒltigkeit der Produzenten indirekten Einfluss zu nehmen, etwa durch das Einreichen von VerbesserungsvorschlĂ€gen oder durch Teilnahme an Marktuntersuchungen. Solches Kundenfeedback mochte zu partiellen Re-Designs fĂŒhren. Erst aber mit dem Aufkommen digitaler Kommunikationstechnologien gewann die Einbeziehung von Anwendern eine funktionale QualitĂ€t. Plötzlich konnten sie zu gleichberechtigten Mitentwicklern an professionellen Projekten jeder GröĂenordnung avancieren - in Echtzeit und unabhĂ€ngig von geografischen Begrenzungen.
Prinzip 2
Evolution der Standards
Die erste Phase freier Softwareentwicklung endete daher mit den sechziger Jahren. Damals kulminierten Entwicklungen in drei parallelen StrĂ€ngen der Digitalisierung, wobei in allen FĂ€llen nicht Institutionen und Konzerne, sondern die Initiativen einzelner Anwender die entscheidende Triebkraft waren. Zum einen mĂŒndete der jahrelange Trend zum vernetzten Echtzeitrechnen in die ersten Knoten des Arpanet. Aus ihm entstand ein Jahrzehnt spĂ€ter dank des offenen TCP/IP-Protokolls das Internet und damit das wichtigste Produktionsmittel fĂŒr freie Software. Das BedĂŒrfnis nach individueller VerfĂŒgung ĂŒber Computer lieĂ weiterhin Bastler die fĂŒr Taschenrechner 1969 entwickelten Mikroprozessoren zweckentfremden. Diese Hardware-Hacks begrĂŒndeten die PC-Industrie, deren Siegeszug Anfang der achtziger Jahre dann die erste Organisation der Bewegung erzeugen sollte.
Zum dritten nahm sich - wiederum 1969 - der Programmierer Ken Thompson eines Projekts an, das Bell Labs, MIT und General Electric nach hohen Investitionen schlicht aufgegeben hatten: Aus dem Mehrplatzbetriebssystem Multix entwickelte er zusammen mit Dennis Ritchie, der zur gleichen Zeit die Programmiersprache C schuf, ein Einplatzsystem. Folgerichtig wurde es Unix getauft. Es sollte fĂŒr die nĂ€chsten dreiĂig Jahre die avancierte Software-Entwicklung fĂŒr Mikrocomputer, PC und Internet prĂ€gen. 1975 wurde die erste Unix-Version auf einem Magnetband vertrieben - ohne jede institutionelle UnterstĂŒtzung, ohne Marketing, ohne Helpline. Doch binnen 15 Jahren hatte das Programm all die Mikrocomputer-Betriebssysteme verdrĂ€ngt, die zuvor den Markt unter sich aufteilten - wobei der Erfolg allerdings bald proprieĂ€re Unix-Versionen auf den Markt kommen lieĂ.
Bereits Unixâ Version 7 sowie Xenix, die erste Portierung von Unix auf einen Intel-Prozessor, verschlossen 1979 den Quellcode selbst fĂŒr akademische Zwecke. Dass eine der beiden kleinen Firmen, die mit AT&T-Lizenz Xenix gemeinsam produzierten, ein weitgehend unbekannter Krauter namens Microsoft war, der erst zwei Jahre spĂ€ter mit dem ebenfalls nicht von ihm erfundenen MS-DOS gröĂeren Erfolg haben sollte, lĂ€sst diese plötzliche Wendung von Unix zum argwöhnisch bewachten Closed-Source-Betriebssystem verstĂ€ndlicher erscheinen.
Unix gab so vor allem in den Jahren zwischen 1969 und 1979, die auch den PC hervorbrachten, ein frĂŒhes und ungemein erfolgreiches Beispiel fĂŒr die EffektivitĂ€t freier Software - ein Beispiel, das im Ăbrigen bis heute nachwirkt. In der von dem Studenten Bill Joy 1977 in Berkeley entwickelten Variante stellte Unix 1982 die Software-Grundlage der heutigen Milliardenfirma SUN. Die LeistungsfĂ€higkeit von Unix inspirierte ebenso das von Richard Stallman 1984 begrĂŒndete freie GNU-Projekt, mit dem ein freies, Unix-artiges Betriebssystem geschaffen werden sollte (GNU ist ein rekursives Akronym fĂŒr âGNUâs Not Unixâ).
Die vorhandenen Elemente der GNU-Variante wiederum halfen 1991 Linus Torvalds, den Linux-Kernel zu programmieren und zu kompilieren. Die GNU-Bewegung inspirierte Torvalds ebenfalls, seinen Kernel als freie Software unter die GPL (General Public License) zu stellen. DarĂŒber hinaus schuf das GNU-Projekt die Systemtools und Anwendungen, die Linux erst zu einem benutzbaren Betriebssystem machen - weshalb viele bis heute statt der einfachen Bezeichnung Linux den Terminus GNU/Linux bevorzugen. Und Unix selbst, in der Berkeley-Variante, liegt schlieĂlich noch dem neuen Apple-Betriebssystems Mac OS X zugrunde, dessen X zugleich die Version 10 wie den Unix-Ursprung indiziert.
In den siebziger Jahren machte der Erfolg von Unix - wie spĂ€ter der vieler anderer offener Protokolle und Standards - einen weiteren zentralen Unterschied zwischen freier und proprietĂ€rer Software deutlich: Solange Firmen und Institutionen eifersĂŒchtig den Entwicklungsgang bestimmen, pflegen hinderliche InkompatibilitĂ€ten zu wuchern. Man erinnere sich nur daran, dass es lange Zeit so gut wie unmöglich war, Daten zwischen den Computern verschiedener Hersteller auszutauschen - nicht einmal reine Textdokumente. Bereits Ende der fĂŒnfziger Jahre war daher der American Standard Code for Information Interchange (ASCII) entwickelt worden, der eine solche minimale InteroperabilitĂ€t gewĂ€hrleisten sollte. Doch es dauerte fast eine Dekade, bis er akzeptiert, und weitere fĂŒnfzehn Jahre, bis er allen Ernstes implementiert wurde und auch nur die nötigsten Sonderzeichen umfasste. Mit einer gewissen ZwangslĂ€ufigkeit behindern proprietĂ€re Programme und die mit ihnen verbundene GeheimniskrĂ€merei die Ausbildung von offenen Standards und damit eine optimale Nutzung.
Offene Standards
In der Entwicklung freier Software hingegen setzen sie sich zĂŒgiger, weil naturwĂŒchsig durch. DafĂŒr gibt es subjektive wie objektive GrĂŒnde. Aus der Wirtschaftstheorie ist bekannt, dass Marktmechanismen weit ĂŒber Ab- und Einsichten von Individuen wie einzelnen Gruppen hinaus geordnete Systeme zu initiieren vermögen - weshalb am Ende nahezu aller Entwicklungszyklen Standards stehen. Im Falle der Closed-Source-VerhĂ€ltnisse beschrĂ€nkt sich die Wirksamkeit solcher Selektionsmechanismen weitgehend auf komplette Produkte. Open-Source-Strukturen hingegen dehnen die Wirkung der Marktmechanismen bereits auf den Entwicklungsprozess aus, wodurch der Standardisierungsdruck eskaliert. Anwender nĂ€mlich sind, egal, wie viel sie fĂŒr eine Ware bezahlt haben, primĂ€r an deren Gebrauchswert interessiert. Daher opponieren sie allem, was eine effektive Nutzung beschrĂ€nkt - vor allem InkompatibilitĂ€ten mit anderen Hard- und Softwareprodukten, die sie oder Menschen in ihrem Umfeld bereits einsetzen.
Der Ausdehnung von Marktmechanismen auf den Entwicklungsprozess verdankt sich die notorische, den gesunden Menschenverstand verblĂŒffende Einheitlichkeit und historische KontinuitĂ€t der Open-Source-Projekte. Man sollte erwarten - und selbst die meisten Entwickler in der freien Softwarebewegung taten das auch anfĂ€nglich -, dass die ungeplante und weitgehend unkontrollierte Arbeit von Hunderten oder Tausenden von Personen, die ĂŒber den Erdball verteilt leben und sich kaum je kennen, zur inhaltlichen Zersplitterung, auch zur Kurzlebigkeit von Projekten und damit zu einem höheren MaĂ an divergierenden Entwicklungen und InkompatibilitĂ€ten fĂŒhrt. All dies geschah zwar auch in der Geschichte freier Software. Die drei freien BSD-Varianten FreeBSD, NetBSD und OpenBSD etwa zeugen von der immer möglichen Zersplitterung. Und natĂŒrlich kamen auch viele Open-Source-Projekte - nicht anders als in der Closed-Source-Welt - kaum ĂŒber ihre AnfĂ€nge hinaus und gingen sang- und klanglos unter. Doch diesen durchaus zahlreichen, wenn auch schnell vergessenen Ausnahmen steht die beachtliche StabilitĂ€t der groĂen Projekte gegenĂŒber.
Sie resultiert aus der spezifischen Struktur des Open-Source-Prozesses. In ihm nĂ€mlich konkurrieren alle Projekte um eine begrenzte Zahl von talentierten Entwicklern. In der Konsequenz fĂŒhrt das zu einer beschleunigten Selektion: Unattraktive Projekte verlieren recht schnell ihre besten Mitarbeiter zu Gunsten populĂ€rerer Projekte, die sich dadurch zĂŒgig stabilisieren. Und selbst in den FĂ€llen, wo zwei oder gar mehr konkurrierende AnsĂ€tze ĂŒberleben, ist unbeabsichtigte InkompatibilitĂ€t allein aufgrund des offenen Quellcodes so gut wie ausgeschlossen. Einerseits also kann UnvertrĂ€glichkeit kaum zufĂ€llig entstehen, andererseits macht im Gegensatz zur Closed-Source-Welt auch ihre gezielte Produktion wenig Sinn, da sich mit mangelnder KompatibilitĂ€t bei gleichzeitig offenem Quellcode keinerlei Konkurrenzvorteile, vielmehr sogar Nachteile im Hinblick auf die Akzeptanz verbinden.
Aus diesen strukturellen GrĂŒnden neigt kollektives Design im historischen Verlauf statt zur Kurzlebigkeit zu KontinuitĂ€t und statt zu Diversifikation zur Standardisierung. Daraus ergibt sich der Gesamteindruck des Gegensatzes zum hierarchisch verwalteten Closed-Source-Bereich. Dessen primĂ€rer Anreiz zur Mitarbeit besteht in der finanziellen Entlohnung, und dementsprechend bestimmt Fluktuation das Bild: Programmierer finden besser bezahlte Stellungen und verlassen ein Projekt, zahlreiche Firmen verschwinden durch Ăbernahme oder SchlieĂung vom Markt, die meisten Produkte haben eine kurze Halbwertzeit. In den diversen Open-Source-Nischen, deren Mitglieder um den besten Code wetteifern, herrscht dagegen relative Dauerhaftigkeit der wichtigsten Projekte, personelle Konstanz ihrer Entwickler sowie eine langfristige KompatibilitĂ€t der Produkte vor.
Das Ă€lteste, bis in die digitale Vorzeit der sechziger Jahre zurĂŒckreichende Beispiel gibt dafĂŒr die dreiĂigjĂ€hrige Geschichte der Unix-Familie in ihrer charakteristischen Mischung aus Generationen-Zersplitterung zwischen proprietĂ€ren und offenen Varianten bei grundsĂ€tzlicher familiĂ€rer KontinuitĂ€t. Wirklich bedeutend fĂŒr die Entwicklung freier Software und die damit verbundene Ausbildung von Standards war Unix zwar allein in seinem ersten Jahrzehnt, den siebziger Jahren. Doch sein freies Erbe wirkt fort, nicht zuletzt in der - wesentlich auf Unix basierenden - Infrastruktur des Internet mit seinen offenen Protokollen wie TCP/IP, SMTP oder HTTP.
Prinzip 3
Produktionsgemeinschaft der Gleichen
Die sukzessive Eröffnung des Datenraums seit den siebziger Jahren mit der Möglichkeit zum Transfer von Daten, mit E-Mail und Usenet-Foren versetzte dem keimenden Trend zur freien Softwareentwicklung zunĂ€chst einen qualitativen, spĂ€ter auch einen quantitativen Schub. Das Internet verband die geografisch verstreuten und voneinander isolierten Widerstandsnester, die sich an Institutionen wie Bell Labs, MIT oder der University of California in Berkeley gebildet hatten. Rund um die Produktion freier Software formte sich eine erst nationale und seit den achtziger Jahren internationale Gemeinschaft. Angesichts der damals recht rudimentĂ€ren Gestalt globaler Vernetzung stand im Vordergrund der BemĂŒhungen zunĂ€chst der nutzergerechte Ausbau des Datenraums selbst.
Freie Software entwickelte wesentlich die Infrastruktur des Internet. Eric Allman von der University of California in Berkeley schrieb 1981 Sendmail fĂŒr Unix, um den Austausch elektronischer Post zwischen dem UniversitĂ€tsnetz, dem er angeschlossen war, und dem weitlĂ€ufigeren Arpanet zu ermöglichen. Ebenfalls Anfang der achtziger Jahre entstand BIND - Berkeley Internet Name Domain -, das Protokoll, das bis heute die Eingabe simpler Namen statt jener Zahlenkolonnen erlaubt, aus denen die Netzadressen realiter bestehen. Weitere Beispiele fĂŒr den Erfolg freier Software im Umfeld des Internet geben Perl (Practical Extraction Report Language), Python oder PHP. Perl, 1987 von dem Linguisten und damaligen Staatsangestellten Larry Wall entwickelt und zur freien Nutzung im Usenet veröffentlicht, war Anfang der neunziger Jahre die Standardsprache zum Entwickeln dynamischer Webinhalte, ohne die E-Commerce kaum denkbar gewesen wĂ€re. Mittlerweile haben zwei andere freie Software-Entwicklungen diese Funktion weitgehend ĂŒbernommen: Python, Anfang der neunziger Jahre von Guido van Rossum entwickelt, und PHP (ursprĂŒnglich Personal Home Page, heute verstanden als AbkĂŒrzung fĂŒr PHP Hypertext Preprocessor), entstanden Mitte der neunziger Jahre im Kontext von David J. Hughesâ mSQL, einer ursprĂŒnglich freien relationalen Unix-Datenbank.
Das Internet spielte auch eine wesentliche Rolle fĂŒr die AnfĂ€nge von Linux: Linus Torvalds, 1991 Student an der UniversitĂ€t von Helsinki, nutzte auf seinem Heimcomputer 386-Minix, eine experimentelle Version des auf Unix basierenden Minix-Lehrbetriebssystems. Um von seinem PC aus Usenet-Nachrichten oder E-Mail auf dem UniversitĂ€tsserver lesen zu können, schrieb Torvalds eine eigene Terminalemulation. Um wiederum die zu nutzen, bedurfte es eines Neustarts, nach dem die ĂŒblichen Minix-Features nicht mehr zugĂ€nglich waren. Aus Torvalds Anstrengungen, das eigene Programm mit den Features zu verbinden, die Minix bot, entstand am Ende Linux. Glyn Moody betont in seinem Buch die historische Ironie: Weil Torvalds nicht ins Internet konnte, entwarf er ein Betriebssystem - das dann nur dank Internet ĂŒberhaupt reifen konnte. In dieser engen historischen VerknĂŒpfung zeigt sich entortete Echtzeitkommunikation als conditio sine qua non der Open-Source-Praxis. Ihre Konsequenzen sind technischer wie sozialer Art.
ZunĂ€chst einmal beschleunigte die Vernetzung die wissenschaftliche Basistechnik des âpeer reviewâ, bei dem Fachleute die Arbeiten von Kollegen begutachten. Kein anderes Verfahren hat ĂŒber die Jahrhunderte hinweg die Produktion von Wissen so nachhaltig geprĂ€gt. Der âorganisierte Skeptizismusâ, wie Robert Merton in der Renaissance den aus der Antike ĂŒberkommenen kritischen Dialog der Gebildeten nannte, garantiert die QualitĂ€t auf dem Markt des Wissens. Im 19. und 20. Jahrhundert, als die Verwissenschaftlichung von Wirtschaft und Alltag fortschritt, gewann die Expertenkritik an Bedeutung. Hinderlich war freilich im alltĂ€glichen Zusammenhang der mit peer reviews verbundene Verlust an Zeit, da sie, wenn nicht teure Parallelgutachten in Auftrag gegeben werden konnten, vorrangig an die Publikation in BĂŒchern und Zeitschriften gebunden waren. Und noch stĂ€rker wurde auĂerhalb des wissenschaftlichen Diskurses die Wirksamkeit von Expertenkritik durch die kommerzielle Praxis eingeschrĂ€nkt, Firmenwissen nicht mit AuĂenstehenden zu teilen. Ohne freien Informationsfluss, ohne die KommunitĂ€t der Erkenntnisse, wie sie in der Wissenschaft ĂŒblich ist, konnten peer reviews nicht wirklich produktiv werden.
Beide EinschrĂ€nkungen ĂŒberwindet die Open-Source-Praxis. Dabei steigert sie zudem die LeistungsfĂ€higkeit der tradierten Wissenstechnik. Wenn die Begutachtung von Verfahren und inhaltlichen VorschlĂ€gen ohne Zeitverlust erfolgt, wandelt sich der Charakter von peer reviews so radikal, wie sich etwa transkontinentale Kommunikation verĂ€ndert, wenn sie statt Briefen, die Wochen mit der Schiffspost unterwegs sind, Telefon oder Chat nutzt. Die Echtzeitbedingungen der Open-Source-Praxis schufen so ein interaktives dialogisches Produktionsmittel fĂŒr geografisch zerstreute Gruppen. Ihr wichtigstes Kennzeichen ist, schreibt Eric Raymond, was Soziologen den âDelphi-Effektâ nennen: den Umstand, dass die ZuverlĂ€ssigkeit von Expertenentscheidungen mit der Zahl der Beteiligten steigt.
Die technologische Aufwertung des peer reviews durch die digitale Vernetzung ergĂ€nzt die Ausbildung virtueller Gemeinschaften. Erst der exponentielle Zuwachs an Internetnutzern in den achtziger und vor allem neunziger Jahren brachte dafĂŒr die kritische Menschenmasse. Seitdem sind ZusammenschlĂŒsse zu nahezu jedem denkbaren Interesse lebensfĂ€hig - und in ihnen kollaborative Produktionen praktikabel. Dank des globalen Talentpools lassen sich qualitativ hochwertige Ergebnisse erzielen und zugleich der Einsatz an Arbeitskraft in der wichtigen, aus den âscientific communitiesâ vertrauten WĂ€hrung der âpeer recognitionâ belohnen. Programmierer und Techniker, wo sie leben und fĂŒr welche Firmen sie arbeiten mögen, lösen so in Open-Source-Projekten nicht nur ihre dringendsten technischen Probleme beziehungsweise die ihrer Arbeitgeber. Sie finden auch soziale Anerkennung durch Gleichgesinnte und Gleichqualifizierte, die ihre Leistungen angemessen zu wĂŒrdigen verstehen.
Von Free Software zu Open Source
Die gĂ€nzliche AbhĂ€ngigkeit der Open-Source-Praxis vom Einsatz digitaler Technik bindet ihre Fortschritte an deren Weiterentwicklung. Die Jahre um 1969/70 schufen insofern mit der EinfĂŒhrung des Mikroprozessors, der Etablierung der ersten nationalen Netzwerkknoten des Arpanet und der Geburt von Unix die Voraussetzungen fĂŒr die in der Folge eskalierende SelbstermĂ€chtigung der Anwender, fĂŒr die Etablierung von offenen Software-Standards und vor allem fĂŒr die Ausbildung einer historisch gĂ€nzlichen neuen, potenziell globalen Produktionsgemeinschaft der Gleichen.
Der nĂ€chste qualitative Entwicklungssprung kĂŒndigte sich ab Anfang der achtziger Jahre an - im Gefolge der massenhaften Durchsetzung des PC und der zunehmenden Internationalisierung sowie Privatisierung des bis dahin primĂ€r amerikanisch-staatlichen Internet. Fortschritte in der Mikroprozessorherstellung, die Multimedia-PCs in einer Leistungsklasse erschwinglich machten, die bis dahin teuren Mikrocomputern vorbehalten gewesen war, sowie die Eröffnung des World Wide Web schufen dann die Voraussetzungen fĂŒr den digitalen Boom der 90er Jahre. Diese Mischung aus technologischen DurchbrĂŒchen und sozialer Durchsetzung der neuen Techniken war es, die den Weg fĂŒr die Produktion und Akzeptanz von freier Software auf breiterer Basis ebnete. (odi [3])
Im zweiten Teil [4]:
Copyleft: Richard Stallman und die digitale Neuordnung geistigen Eigentums - Linux: Linus Torvalds und die digitale Neuorganisation der Arbeit - Open Source: Eric Raymond und die Ăffnung der Bewegung zum mainstream
Literatur
[1] Wer sich informieren will, findet online zahlreiche Computerlexika, etwa www.techweb.com/encyclopedia/ [6].
[2] In der Reihenfolge ihres Erscheinens:
Chris DiBona (Hrsg.), Open Sources: Voices From the Open Source Revolution (1999)
Peter Wayner, Free for All: How LINUX and the Free Software Movement Undercut the High-Tech Titans (Juli 2000)
Russell Pavlicek und Robin Miller, Embracing Insanity: Open Source Software Development (September 2000)
Pekka Himanen, Hacker Ethic (Januar 2001)
Glyn Moody, Rebel Code: Linux and the Open Source Revolution (Januar 2001)
Eric Raymond, The Cathedral and the Bazaar (Januar 2001; aktualisierte Sammlung seiner seit 1997 erschienenen und zum Teil bereits 1999 gesammelt veröffentlichten AufsÀtze)
Linus Torvalds und David Diamond, Just for Fun: The Story of an Accidental Revolutionary (Mai 2001)
Andrew Leonards work in progress zur Open-Source-Geschichte auf www.salon.com [7] (odi [8])
URL dieses Artikels:
https://www.heise.de/-285236
Links in diesem Artikel:
[1] #literatur
[2] #literatur
[3] mailto:odi@ct.heise.de
[4] http://www.heise.de/ct/01/21/270/
[5]
[6] http://www.techweb.com/encyclopedia/
[7] http://www.salon.com/
[8] mailto:odi@ix.de
Copyright © 2001 Heise Medien