Wissen ist Geld

Der Kampf um das so genannte geistige Eigentum wird härter. Die Ausdehnung des Patentwesens auf Software und die Verschärfung des Urheberrechts sind anscheinend nicht aufzuhalten. In der neoliberalen Wissensordnung sind Information und Wissen eine handelbare Ware.

vorlesen Druckansicht 16 Kommentare lesen
Lesezeit: 42 Min.
Von
  • Richard Sietmann
Inhaltsverzeichnis

In Kürze wird das höchste Gericht der USA, der Supreme Court, über die Verfassungsmäßigkeit des Copyright Term Extension Act (CTEA) entscheiden. Mit diesem im Oktober 1998 verabschiedeten Gesetz hatte der Kongress die Schutzdauer des Copyright rückwirkend um weitere 20 Jahre verlängert. Zuvor waren für Unternehmen geschaffene Auftragswerke 75 Jahre lang geschützt; und ohne die politische Intervention wären derzeit viele Werke aus den zwanziger und dreißiger Jahren zu einem öffentlichen Gut geworden - so etwa Filmklassiker wie ‘Vom Winde verweht’, die Kompositionen George Gershwins oder die Disney-Cartoons mit Donald Duck und Micky Maus. Für Hollywood bedeutet das auf Betreiben des Senators Salvatore ‘Sonny’ Bono, dem einstigen Partner der Sängerin Cher in dem Duo Sonny & Cher, zu Stande gekommene Gesetz bares Geld - ‘Corporate Welfare’, wie Spötter diese Art der Sozialhilfe für Unternehmen nennen.

Das umstrittene Mickey-Mouse-Gesetz ist nur ein Querschläger in einer wahren Explosion gesetzgeberischer Aktivitäten rund um das geistige Eigentum, mit denen sich die USA zum Schrittmacher einer neuen Wissensordnung aufschwingen. Die heiß laufende Legislative reagiert reflexartig auf die Ängste der Medienkonzerne vor der digitalen Revolution. Aus deren Sicht sind sämtliche Charakteristika der Informationstechnik - die leichte Kopierbarkeit ohne Qualitätsverlust und die potenziell weltweite Verbreitung via Internet - keine Errungenschaft, sondern eine Fehlentwicklung. So erklärt sich das verblüffende Paradox, dass, was als ‘frictionless economy’ zu einem beispiellosen Höhenflug ansetzte, nunmehr künstlich Ballast eingezogen bekommt. All die Auseinandersetzungen der jüngsten Zeit - vom CD- und DVD-Kopierschutz über Digital Rights Managementsysteme und Software-Lizenzen bis zur Bekämpfung von P2P-Systemen und Open Source Software - finden ihren gemeinsamen Nenner in dem Bemühen der Content-Verwerter, eine aus dem Ruder gelaufene technische Entwicklung wieder einzufangen, die dem User zu viele Entfaltungsmöglichkeiten an die Hand gibt.

Die Entwicklung in den USA ist kein Schauspiel, das man diesseits des Atlantik, auf ein Happy End hoffend, lediglich als Zuschauer von der Tribüne aus verfolgen könnte. Im TRIPS-Abkommen von 1994 zu den ‘Trade-Related Aspects of Intellectual Property Systems’ haben sich die Mitgliedsländer der Welthandelsorganisation (WTO) zur Angleichung und ‘Pflege’ ihrer Schutzrechtssysteme, der Einhaltung gewisser Mindeststandards und zur Sicherung der Rechte ausländischer Ansprüche auf geistiges Eigentum verpflichtet. Die USA verabschiedeten 1998 den Digital Millennium Copyright Act (DMCA), der das Copyright im Hinblick auf das Internet in vielfältiger Weise stärkte und strafrechtlich bewehrte. Insbesondere stellte er die Weichen zur Einführung des Digital Rights Management (DRM), indem er das Umgehen oder Entschlüsseln von DRM-Systemen unter Strafe stellt - selbst wenn dies zu Forschungszwecken dient. Seither ist die Marschrichtung vorgegeben. Das europäische Gegenstück zum DMCA, die ‘Richtlinie zur Harmonisierung bestimmter Aspekte des Urheberrechts und der verwandten Rechte in der Informationsgesellschaft’ der EU, trat am 22. Juni 2001 in Kraft und muss eigentlich bis zum 22. Dezember 2002 in nationales Recht umgesetzt sein.

Im Bundestag beginnen jetzt die Beratungen über die Novellierung des Urheberrechts-Gesetzes. Auch der Regierungsentwurf zielt auf das Entstehen von Informationsmärkten und die Stärkung des Warencharakters geistiger Erzeugnisse. Wie das US-Vorbild soll das neue Gesetz den rechtlichen Rahmen für DRM-Systeme schaffen und die Umgehung von Kopierschutzsystemen verbieten. Jeder Urheber beziehungsweise Inhaber des Verwertungsrechts erhält danach das Recht, durch ‘wirksame technische Maßnahmen’ wie Verschlüsselung, Verzerrung oder Kopiersperren ein Werk vor missbräuchlicher Nutzung zu schützen (§ 95a UrhGE). Die Umgehung dieser Maßnahmen, sowie die Weitergabe oder Veröffentlichung von Anleitungen dazu stellen eine Straftat dar (§ 108b).

Grundsätzlich gestatten die Paragrafen 52a und 53 auch künftig bisher als ‘fair use’ zulässige Nutzungsformen und erlauben, zu Unterrichts- und Forschungszwecken sowie zum privaten Gebrauch digitale Kopien ohne Zustimmung des Rechtsinhabers herzustellen. Der wiederum ist verpflichtet, dem Nutzer dazu ‘die notwendigen Mittel zur Verfügung zu stellen’ (§ 95b UrhGE). Praktisch dürfte der Schutz der Privatkopie jedoch wenig wert sein, denn genau die sollen die in § 95a unter Schutz gestellten DRM-Systeme ja verhindern. Die Unterhaltungsindustrie zeigt jedenfalls keine Anstrengungen, den Konflikt zu lösen.

Der Aufbau eines rigiden Kontroll- und Verwertungsregimes verschiebt die Balance zwischen dem Bestand öffentlich frei zugänglicher Werke, der Public Domain, und dem durch Ausschließungsrechte geschützten Bereich privater Vermarktungsinteressen. Dieselbe Tendenz zur Ausweitung staatlich garantierter Verwertungsmonopole findet sich im Patentrecht wieder. Auf dieser zweiten, heiß umkämpften Baustelle auf dem Gelände des geistigen Eigentums geht es vor allem um die Ausdehnung des Patentschutzes auf Computerprogramme.

Software-Patente benachteiligen kleine und mittlere Unternehmen sowie freie Software-Entwickler, die nun vor jedem Projekt Patentrecherchen durchführen müssen, ob Teile ihres Codes möglicherweise schon geschützt sind. Das erhöht die Transaktionskosten, denn eigene Patente bringen unter Umständen zwar Geld, aber für die benötigten Lizenzen anderer muss man zahlen. Und sie begünstigen Großunternehmen, die sich Patentstellen zur Durchsetzung ihrer Ansprüche leisten können. ‘Bis heute gibt es keine Belege für einen spürbaren Nutzen von Software-Patenten, dafür aber deutliche Fakten zu ihrer schädlichen Wirkung’, meint der Präsident der Free Software Foundation Europe, Georg Greve. ‘Sie können in nahezu beliebiger Zahl kreiert werden, bedürfen keines Bezugs zur Realität und ihr einziger Zweck besteht in der Einleitung von juristischen Auseinandersetzungen’, und die gewinnt ‘im Zweifelsfall immer der wirtschaftlich Stärkere’.

Ein Insider, der sich in dem Geschäft bestens auskennt, hat den Abschottungsmechanismus gegenüber kleineren Konkurrenten recht präzise beschrieben: ‘Ein Start-up mit keinen eigenen Patenten wird künftig gezwungen sein zu zahlen, was die Großen zu verlangen belieben’, erklärte Microsoft-Chef Bill Gates einmal seinen Führungskräften, was Markteintrittsbarrieren sind; ‘und der Preis könnte hoch sein - etablierte Firmen haben ein Interesse daran, künftige Wettbewerber auszugrenzen’.

In den USA sind Computerprogramme seit 1994 patentierbar. In Europa steht eine Richtlinie der EU-Kommission kurz vor ihrer Verabschiedung. Sie soll die von den Patentämtern - gegen den Wortlaut des Europäischen Patentübereinkommens - bereits erteilten Software-Patente nachträglich legalisieren und die Erteilungspraxis auf eine Linie mit der des US Patent and Trademark Office bringen. Im Vorfeld hatte die Brüsseler Kommission einen Konsultationsprozess durchgeführt, bei dem mehr als 1450 Stellungnahmen eingingen. Nur entsprach das Ergebnis nicht ganz den Vorstellungen. Der größte Teil lehnte die Ausweitung des Patentschutzes ab.

Der Report ‘The Results of the European Commission Consultation Exercise on the Patentability of Computer Implemented Inventions’ [1|#literatur] dokumentierte denn auch die beiden Lager, die sich in dieser Frage gegenüberstehen: Akademiker, Entwickler und kleine Firmen befürchten überwiegend negative Auswirkungen auf Interoperabilitätsstandards sowie lähmende Rechtsstreitigkeiten um das geistige Eigentum und Gefahren für die Entwicklung Open Source Software. Zu den Befürwortern eines weitgehenden Monopolschutzes zählten vor allem Patentanwälte, Großkonzerne und Patentbehörden.

‘Es war klar, dass die Gruppe der Softwarepatent-Gegner (91 %) numerisch die eingegangenen Antworten dominiert’, heißt es zunächst in dem Report. Doch dann sezierten die mit der Auswertung beauftragten Consultants feinsinnig die Mehrheitsverhältnisse: ‘54 % der Stellungnahmen, die direkt an die Kommission gingen und nicht explizit von ‘Open Source’-Anhängern kamen, unterstützten Software-bezogene Patente’. Und auf diese Feststellung folgte unverblümt die realpolitische Gewichtung: ‘Wenn man die Wirtschaftskraft und Zahl der Organisationen in Rechnung stellt, deren Stellungnahmen die Industrie und andere Verbände repräsentieren, lässt sich begründen, dass es eine ‘wirtschaftliche’ Mehrheit zu Gunsten von Patenten für computerimplementierte Erfindungen gibt’. Damit war klargestellt, wessen Interessen es zu bedienen galt.

Zum Verständnis der Mechanismen, mit denen mächtige Lobbys ihre Interessen durchsetzen, bieten Politikwissenschaftler die Theorie des kollektiven Handelns an. Sie beruht im Wesentlichen auf der spieltheoretischen Analyse von Kosten/Nutzen-Verhältnissen der beteiligten Akteure, wie sie erstmals Mancur Olson in seinem Klassiker ‘The Logic of Collective Action’ beschrieb [2|#literatur].

Wenige Akteure, die mit einer Regelung (beispielsweise dem gesetzlichen Schutz von DRM-Systemen) viel gewinnen können, werden aus Eigennutz sehr viel mehr in das Zustandekommen dieser Regelung investieren - etwa durch teure Gutachten oder intensive Lobbyarbeit. Umgekehrt wirkt die Kosten-Nutzen-Rechnung zu Ungunsten der vielen, die von der Regelung jeweils einzeln nur marginal betroffen sind (etwa, indem sie zur Nutzung von Software oder zum Abspielen von DVDs fürderhin eine Trusted Computing Platform und ein Rechtekontrollsystem auf ihrem PC akzeptieren müssen). Der Aufwand an Zeit und Geld, den sie zur Artikulation von Gegenmaßnahmen investieren müssten, steht bei ungewissen Erfolgsaussichten in keinem Verhältnis zu dem individuellen Nutzen. Entsprechend gering ist der Anreiz, sich zu organisieren. Die Organisationsbarrieren begünstigen diejenigen, deren wirtschaftliche Interessen am meisten auf dem Spiel stehen. ‘Bevor alle anderen herausgefunden haben, um welche politischen Weichenstellungen es geht’, meint die amerikanische Urheberrechtsexpertin Jessica Litman, ‘wird die Schlacht ums Copyright wahrscheinlich schon verloren sein’ [3|#literatur].

In einem demokratischen System sollten eigentlich die gewählten Repräsentanten für den Ausgleich sorgen, wenn straff organisierte Gruppen hartnäckig und zielgerichtet einem diffusen und kaum formierten Teil der Gesellschaft gegenüberstehen. Doch gegen die Phalanx von Patentbehörden, Ministerialjuristen, Fachanwälten und Wirtschaftslobbys haben die Volksvertreter einen schweren Stand. Je komplexer die bürokratischen Regelwerke aus Paragrafen und Spiegelstrichen werden, desto weniger durchschauen die Parlamentarier, geschweige denn die Bürger, wohin die Weichenstellungen führen.

Der schwere Stand der Parlamentarier beruht zudem auf dem neoklassischen Marktfundamentalismus der Chicago School um Milton Friedman und der daraus abgeleiteten Wirtschaftspolitik, die auf den drei Säulen des Freihandels und der internationalen Arbeitsteilung, der Deregulierung und Privatisierung, sowie der Steuersenkungen und restriktiven Geldpolitik ruht. Als Kernbestandteil gilt das Subsidiaritätsprinzip: Der Staat soll sich mit seinen klassischen Instrumenten - Geld, Gesetz, Gewalt - auf seine Kernaufgaben beschränken, die Wahrung der inneren und äußeren Sicherheit und Ordnung. Aus allem, was private Unternehmen erbringen können, hat sich die Öffentliche Hand herauszuhalten.

Der eigentliche Strukturwandel von der Industrie- zur wissensbasierten Dienstleistungsgesellschaft, in dem Wissen immer mehr zum vierten Produktionsfaktor neben Kapital, Arbeit und Boden wird, läuft ohnehin von selbst ab; Regierungen können ihn nicht beeinflussen. Der französische Ökonom Jean Fourastié hatte diese Transformation schon in den fünfziger Jahren als die ‘große Hoffnung des 20. Jahrhunderts’ bezeichnet; sein Hauptwerk mit diesem Titel prägt bis heute die Denkweise der tonangebenden neoliberalen Ökonomen und Globalisierungspolitiker [4|#literatur].

Die Grundversorgung mit Agrar- und Industrieprodukten ist - zumindest in unseren Breiten - gesichert; die weitere Expansion stößt an die materiellen Grenzen der Umwelt. Deshalb verlagert sich die Wertschöpfung, scheinbar zwangsläufig, zunehmend auf immaterielle Güter, auf Dienstleistungen und insbesondere auf die höherwertigen Dienstleistungen in den Bereichen Forschung, Bildung und Beratung, Kultur und Unterhaltung. Immaterielle Wirtschaftsgüter sind keinen Wachstumsgrenzen unterworfen. Anders als die klassischen Produktionsfaktoren Kapital, Arbeit und Boden sind Wissen, Information und Know-how beliebig vermehrbar. Die ‘große Hoffnung’, die sich seit Fourastié damit verbindet, ist die Überwindung des Produktivitätsdilemmas, indem die von technischem Fortschritt und Rationalisierung in Landwirtschaft und Industrie freigesetzten Arbeitskräfte Lohn und Brot im tertiären Wirtschaftssektor finden.

Dazu aber muss das Investitionskapital erst in diesen Sektor umgeleitet werden. Diese Lücke schloss in den siebziger Jahren der amerikanische Finanzwissenschaftler Alfred Rappaport, indem er aus dem von Fourastié vorgezeichneten Trend quasi einen ‘Business Case’ machte. Mit seiner Theorie des Shareholder Value leitete er ein Umdenken in der betriebswirtschaftlichen Unternehmensbewertung ein, das ‘Kapital’ und ‘Wissen’ stärker miteinander verknüpfte und den so genannten ‘intangible assets’ einen größeren Stellenwert einräumte. Zu diesen klassisch nicht bilanzfähigen Unternehmenswerten gehören neben Know-how, schlagkräftiger Organisation, der Fähigkeit zur Innovation und Markenführung insbesondere auch die Schutzrechte für geistiges Eigentum. Von ihnen hängt der zukünftige Cash-Flow ab, und damit der Shareholder Value heute, nämlich die Rendite- und Ertragserwartungen der Investoren, die sich im Börsenwert niederschlagen.

Unternehmen, die auf zahlreiche Schutz- und Verwertungsrechte verweisen können, gelten als besonders innovativ und zukunftsträchtig unter Anlegern, die oftmals kaum in der Lage sind, die Werthaltigkeit der dahinter stehenden Entwicklungen selbst zu beurteilen. Zudem sind Informationen, Ideen und Know-how leicht kopierbar; ist der Geist erst aus der Flasche, lässt er sich nicht zurückholen. Wenn Wissen ein handelbares Gut werden soll, muss das Gut künstlich verknappt, die Verwendung eingeschränkt werden. Das geht nur mit juristischen Nutzungsbeschränkungen: Indem das staatlich verbriefte Monopol in Gestalt von Patenten oder Copyrights zu einem handelbaren Ausschließungsrecht wird, entsteht für diese immateriellen Güter ein Markt, der sie mit einem Preis belegt und damit die Risiken besser kalkulierbar macht.

Die Logik fiel auf einen fruchtbaren Boden. ‘Eigentumsrechte sind der Eckstein jeder effizienten Marktwirtschaft’, verkündete 1989 die in Paris beheimatete Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD), eine Art ‘Think Tank’ der 30 führenden Industriestaaten und ein Anwalt des Freihandels. ‘Indem sie die Ausschließung anderer von der Nutzung des Gutes erlauben, unterscheiden sich die Rechte an geistigem Eigentum in keiner Weise von denen an materiellen Gütern’. Seither ist die Vorstellung vom Rechtehandel als wachstumstreibender Wirtschaftsfaktor in der Politik allgegenwärtig. ‘Geistige Eigentumsrechte wie Patente, Marken- und Urheberrechte sind heute Schlüsselbereiche im Rahmen zunehmender Globalisierung geworden’, hieß es jüngst beim Bundesjustizministerium. ‘Mit ihnen wird der Wert von Kreativität und Wissen zur Förderung der wirtschaftlichen und kulturellen Entwicklung in Industrie- und Entwicklungsländern gesichert’.

Es fügt sich scheinbar alles. Ein starker Rechtsschutz für Software und digitale Güter schafft Arbeitsplätze im Dienstleistungssektor, und die internationale Vereinheitlichung der Rechtssysteme verwirklicht mit dem Abbau von Handelshemmnissen den Freihandel. Von dem können nur noch unbelehrbare Kritiker behaupten, er meine die Freiheit der Füchse im Hühnerstall. Die globale Einmütigkeit geht inzwischen so weit, dass die innere Widersprüchlichkeit des Programms kaum noch Beachtung findet. So werden viele Bankangestellte das erhoffte Jobwunder im tertiären Sektor derzeit mit gemischten Gefühlen betrachten - das Ausmaß und das noch längst nicht ausgeschöpfte Potenzial der Rationalisierung von Dienstleistungen durch Informationstechnik konnte Fourastié nicht voraussehen. Und dass der Shareholder Value der Phantasie breiten Raum lässt, weil der Wert immaterieller Güter nur geschätzt, aber nicht gemessen werden kann, haben die Aktionäre am kometenhaften Aufstieg und rasanten Niedergang der New Economy verfolgen können.

Zudem ignorieren die neoliberalen Wirtschaftswissenschaftler, dass Information im Unterschied zu anderen Gütern eine zwielichtige Doppelrolle spielt. In ihrer Theorie ist sie nämlich sowohl die Voraussetzung für das Funktionieren des Marktes als auch eine Ware, die in eben diesem Markt produziert wird: Als handelbares Gut darf sie nicht allgemein verfügbar sein, sondern würde niemand dafür zahlen wollen, und aus betriebswirtschaftlicher Sicht wäre sie wertlos. Andererseits werden, so das neoliberale Credo, Angebot und Nachfrage durch rationale Entscheidungen vollständig informierter Individuen bestimmt, alle vorhandenen Informationen müssen also allgemein verfügbar sein, sonst können sich die Marktteilnehmer nicht rational verhalten. Deshalb sind beispielsweise an der Börse die Publizitätspflichten von Unternehmen rechtlich geregelt, und ‘proprietäre Information’, das Ausnutzen von Insiderwissen, ist strikt verboten: Informationsasymmetrien vertragen sich nicht mit der Gleichstellung der Marktteilnehmer.

In ähnlicher Weise schaffen die durch Patente oder Urheberrechte gewährten Monopole Asymmetrien, die den Wettbewerb behindern. Mit einer Analyse hatte die Juristin Jessica Litman, heute Professorin an der Wayne State University, bereits 1990 gezeigt, dass die Austrocknung der Public Domain durch die extensive Gewährung von Ausschließungsrechten an die Urheber von Ideen, Erfindungen und Werken geradezu kontraproduktiv wäre. Denn die ‘Public Domain’, der Bestand an frei verwertbarer Information und Wissen, ist nicht etwa der große, wertlose Rest, der keinen Monopolschutz verdiente, sondern der Nährboden, auf dem die Urheberschaft erst gedeihen kann.

‘Originalität ist eine juristische Fiktion’, meint Litman. Komponisten rekombinieren Klänge, die sie bereits vorher hörten; Schriftsteller zeichnen ihre Figuren und Handlungsstränge dem Leben oder den Werken anderer Schriftsteller nach; Software-Designer arbeiten mit der Logik, die sie in mathematischen Algorithmen oder in anderer Software finden. Ob Filmemacher, Schauspieler, Choreographen, Bildhauer, Architekten oder Ingenieure - sie alle adaptieren, transformieren und rekombinieren ein Material, das in irgend einer anderen Form ‘da draußen’ bereits existiert. ‘Das ist kein Schmarotzertum, es ist das Wesen der Urheberschaft’, betont Litman; ‘und ohne eine starke Public Domain wäre vieles davon illegal’. Das Reservoir an frei verwertbaren Ideen und Werken bildet einen Gegenpol, der die Urheberschaft rechtlich überhaupt erst ermöglicht. Denn, so argumentiert die amerikanische Juristin, ‘den potenziellen Beklagten schützt sie vor den Rechtsfolgen des unvermeidlichen Kopierens’, und ‘den potenziellen Kläger enthebt sie der unmöglichen und zudem unwillkommenen Verpflichtung, die Originalität sämtlicher Bestandteile seines Werkes tatsächlich nachweisen zu müssen’ [3|#literatur].

Den Territorialkonflikt zwischen Public Domain und Private Property suchen Patent- und Urheberrecht durch die zeitliche Befristung zu entschärfen. Nach dem Ablauf der Schutzdauer - in Deutschland 20 Jahre für Patente beziehungsweise 70 Jahre nach dem Tod des Urhebers - wird in allen Rechtssystemen die Idee oder das Werk zum Gemeineigentum und frei verwertbar. Doch das Beispiel des Sonny-Bono-Gesetzes von 1998 zeigt, in welche Richtung die Verfechter des geistigen Eigentums die Entwicklung treiben wollen. Das Copyright-Gesetz der USA von 1790 hatte die Schutzdauer auf 14 Jahre festgelegt. Im ersten Jahrhundert seiner Geltung wurde sie nur einmal verlängert, und ein weiteres Mal in den folgenden 50 Jahren; doch allein in den letzten vier Jahrzehnten erweiterte der Kongress die Schutzdauern insgesamt elf Mal.

Die Aktivisten des Rechtehandels genieren sich nicht, dabei bis an den Rand des Verfassungsbruchs zu gehen. Die USA hatten den Erfindungs- und Urheberrechtsschutz schon 1787 in ihrer Verfassung verankert. ‘Der Kongress wird ermächtigt’, heißt es in Section 8, Article I, Paragraf 8 der US Constitution, ‘den Fortschritt der Wissenschaft und angewandten Künste zu fördern, indem er Autoren und Erfindern für eine begrenzte Zeit das ausschließliche Recht an ihren Schriftwerken und Entdeckungen zusichert’. Alles Auslegungssache: Die republikanische Abgeordnete Mary Bono, die nach dem Tode ihres Mannes Sonny zur treibenden Kraft hinter dem CTEA wurde, definierte das Verfassungsgebot ‘begrenzte Zeit’ öffentlich als ‘to last forever minus one day’ - befristet heißt, ‘für immer minus einen Tag’.

Sowohl das Patent- als auch das Urheberrecht ziehen ihre Legitimation aus dem gesellschaftlichen Nutzen der Anreizwirkung. Der Verwertungsschutz soll Autoren, Künstler und Erfinder zu kreativen Werken animieren; ohne die Hoffnung auf spätere Erlöse würden sie kaum einen beträchtlichen Teil ihrer Schaffenskraft investieren. Selbst der Linux-Verband hat unlängst, in einer Stellungnahme zu Software-Patenten, den Investitionsschutz als ‘einzige rationale Begründung des Patentwesens’ bezeichnet.

Die Gesetzgebungspraxis im Fall des CTEA führt aber selbst den angestrebten Investitionsschutz der Urheber und Verwerter ad absurdum: Wessen bereits abgeschriebene Investitionen könnten im Nachhinein noch geschützt werden, welchen verstorbenen Künstler sollte die rückwirkende Ausweitung der Schutzdauer noch zu kreativen Leistungen anspornen? Es geht schlicht um die Interessen der Verwerter. Das Rechtssystem soll Medien- und Software-Unternehmen Monopolrenditen sichern und ihre Geschäftsmodelle vor den unerwünschten Folgen neuer Technologien abschirmen.

Diese Form staatlicher Subventionierung fällt nur nicht so auf, weil sie unter dem schillernden Begriff des ‘geistigen Eigentums’ daherkommt. ‘Der ist ziemlich dumm - Patente sind nicht mehr (und nicht weniger) ‘Eigentum’ wie Sozialhilfe Eigentum ist’, meint der Cyber-Rechtler Lawrence Lessig. ‘Die Gewährung von Patenten mag Sinn machen, so wie die Bereitstellung von Sozialhilfe sicherlich sinnvoll ist. Aber die Vorstellung, dass es ein Recht auf ein Patent gibt, ist geradezu absurd. In unserer Tradition galt von Anfang an als selbstverständlich, dass sich die Erteilung oder Nichterteilung eines Patentes einzig von der Frage leiten lässt, ob Patente der Gesellschaft nützlich sind.’ [5|#literatur]. Aber unter dem Banner des ‘Intellectual Property’ reduziert sich die Diskussion häufig in Schwarzweiß-Manier auf die Frage, ob man für oder gegen privates Eigentum ist, und plötzlich sind Patente oder Urheberrechte dasselbe wie der Besitz des Autos oder das Eigentum an einem Grundstück.

Mit Hilfe des Kampfbegriffs (wie FSF-Übervater Richard Stallman ihn nennt) ‘geistiges Eigentum’ schreitet die Landnahme im Cyberspace jedenfalls zügig voran. Denn egal, wie der Supreme Court über den CTEA entscheidet - die Herren der Medien werden darauf kaum noch angewiesen sein, weil sie auf andere Weise die totale Kontrolle über die digitalen Güter zu bekommen scheinen. Der Weg dorthin führt über eine Doppelstrategie, die das juristische Instrument der Endnutzer-Lizenzverträge mit technischen Mitteln wie Kopiersperren und der Rechteverwaltung auf den Endgeräten der User verbindet.

Solche DRM-Systeme können rein Software-basierte Module zur Entschlüsselung von Werken sein, die beispielsweise verhindern, dass sich ein heruntergeladenes Musikstück mehr als dreimal abspielen lässt, bevor eine Nachlizensierung fällig wird [6|#literatur]; abgerechnet wird entweder direkt mit dem Content-Provider oder über Internet-Provider wie AOL oder MSN. Eine wirkliche Kontrolle über das, was auf dem System des Users passiert, bietet jedoch erst die Verknüpfung (‘Verdongelung’) von Hardware- und Software-Schutzmechanismen, die sich Microsoft in dem Projekt ‘Palladium’ und Intel, AMD sowie 170 Firmen (darunter auch wieder Microsoft) in der Trusted Computing Platform Alliance (TCPA) zum Ziel gesetzt haben [7|#literatur].

Dabei geht jede Datenbewegung zwischen Prozessor, RAM, Festplatte und Monitor nur noch in verschlüsselter Form und mit wechselseitiger Authentifizierung der Komponenten vor sich, um Manipulationen am System wie das Anzapfen der Datenströme oder den Einbau ‘unsicherer’ Komponenten zu verhindern. Aus dem Universalrechner wird ein versiegeltes und letztlich online fremdkontrolliertes Abspielgerät (siehe auch den Artikel auf S. 186 dieser Ausgabe der c't). Der Medienbranche indes geht alles nicht schnell genug, insbesondere die Motion Picture Association of America und die Recording Industry Association of America (MPAA bzw. RIAA) drücken bereits auf die Tube. Im Frühjahr brachte der demokratische Senator Ernest Hollings aus South Carolina im Kongress den Entwurf des Consumer Broadband and Digital Television Promotion Act (CBDTPA) ein, der den Endgeräte-Herstellern eine Frist von einem Jahr setzen soll, sich mit der Content-Industrie auf einen gemeinsamen DRM-Standard zu einigen, der dann gesetzlich vorgeschrieben werden soll.

Mit dem CBDTPA würde jeder digitale Medienplayer - ob als Hard- oder Softwaregerät - illegal, der keinen gesetzlich vorgeschriebenen Sicherheitsmechanismus implementiert. Als ‘Consume But Don’t Try to Program Act’ übersetzt Richard Stallman das Vorhaben. Für die freie Software-Szene ist der Vorstoß in der Tat vernichtend. Weil ein im offenen Quellcode vorliegendes DRM-System im Prinzip von jedem umgeschrieben werden könnte, würden DRM-Implementierungen mit Open Source Software ungesetzlich - und letztlich sogar jedes freie Betriebssystem mit offenen Kernelquellen. User, die noch selbst die Kontrolle über das behalten wollen, was auf ihrem PC geschieht, würden in die Illegalität gedrängt. ‘Wenn das Abspielen einer DVD mit proprietärer Software zulässig ist’, verlangt Stallmann daher, ‘dann muss uns auch mit freier Software das Abspielen erlaubt sein’.

Die DRM-Systeme werden zwar unter dem Dach des Copyright eingeführt, doch im Grunde richten sie darunter das Gebäude neu aus. War bisher der Verwertungsschutz ein von der Gesellschaft unter einschränkenden Auflagen gewährtes Recht, so sind es nun die Begünstigten, die gewähren und definieren, unter welchen Bedingungen sie die Ausnahmen vom generellen Nutzungsausschluss gestatten. Die unsichtbaren Zäune sind hoch, und die Drehkreuze an den Portalen öffnen sich ausschließlich zu den Konditionen der Content-Besitzer. DRM-Systeme geben ihnen einen größeren Schutz als das klassische Urheberrecht. Sie können mit proprietären Rechtekontrollen jegliche Nutzung steuern, überwachen und ihre Konditionen kompromisslos durchsetzen. Die Möglichkeiten dazu geben ihnen DMCA, EU-Richtlinie und der Regierungsentwurf zur Urheberrechtsnovelle bereits in die Hand, bevor geklärt ist, wo die Grenzen liegen.

Und Möglichkeiten zur Landnahme, zum Abstecken von Claims, bevor das Gelände kartiert ist, gibt es viele. So zum Beispiel die userspezifische Diskriminierung durch das gezielte Einschränken oder Entziehen von Nutzerrechten, die kritisches Zitieren und Parodien von Werken oder im Fall von Software-Vergleichstests mit Konkurrenzprodukten von vornherein verhindert. Da das Hacking von DRM-Systemen unisono gesetzlich ausgeschlossen sein soll, werden solche Fälle kommerzieller Zensur nicht einmal nachweisbar sein.

Indem sie in die Privat- und Grundrechtssphäre des Nutzers eindringt, höhlt die Implantation fremdgesteuerter Rechteverwaltungen auf dem PC des Users nicht nur das klassische Copyright aus, sondern zieht auch andere Rechtsbereiche in Mitleidenschaft. ‘Trusted Computing’, rückt Richard Stallman den Blickwinkel zurecht, ‘bedeutet nicht, dass Sie Ihrem Computer vertrauen können, sondern dass Microsoft oder die RIAA Ihrem Computer trauen’. Und die Rechtsprofessorin Julie Cohen von der Georgetown University fordert provokant ein Recht zum Hacken von Rechtekontrollsystemen, damit die ‘fair use’-Einschränkungen der Verwertungsprivilegien gewahrt bleiben.

Völlig sicher scheinen sich die Landlords des geistigen Eigentums indes nicht zu sein, ob die Chuzpe, mit der sie das Copyright-System auf den Kopf stellen, auf Dauer verfängt. Daher suchen sie sich zusätzlich abzusichern. Selbst wenn das Copyright ihnen noch ‘fair use’- und ‘first sale’-Einschränkungen in der Gestaltung der DRM-Systeme auferlegen sollte, also das Recht auf die Privatkopie und die Wiederveräußerung, dann bietet der Umweg über das Vertragsrecht noch eine Möglichkeit, sie mit End User License Agreements (EULAs) wieder auszuhebeln.

Diese zweite Front der Landnahme trägt den Titel UCITA. Der ‘Uniform Computer Information Transactions Act’ ist eine Initiative, die weithin bereits geübte Praxis der ‘Mausklick-Lizenzen’ in den Allgemeinen Geschäftsbedingungen - in den USA Sache der Bundesstaaten - juristisch wasserdicht abzusichern und ihr USA-weit einheitlich Geltung zu verschaffen. Formal verantwortet die Initiative die für die Harmonisierung des Handelsrechts zuständige National Conference of Commissioners on Uniform State Laws (NCCUSL); die treibenden Kräfte sind große Softwarehäuser wie Microsoft und Oracle, Internet-Provider wie AOL sowie Computer- und Chiphersteller, darunter Intel.

UCITA löst die tradierten Rechte auf, die der Käufer mit dem Erwerb eines Produktes verbindet. Legalisiert würde damit beispielsweise, Lizenzbedingungen verbindlich zur Geltung zu bringen, die der Kunde erst bei der Installation zu lesen bekommt, nachdem er das Produkt bereits erworben hat, und die er nur in toto akzeptieren kann. In der ‘Click-wrap licence’ kann der Hersteller ihm rechtmäßig untersagen, erworbene Software öffentlich zu kritisieren, sie zu verkaufen und zu verschenken oder sie gar zur Fehlerbeseitigung oder zum Stopfen von Sicherheitslöchern zu dekompilieren. Schon der gemeinsame Gebrauch mit einem Freund oder Kollegen, der denselben PC benutzt, lässt sich damit unterbinden. Und schließlich würden mit UCITA auch pauschale Freizeichnungsklauseln hinsichtlich der Haftung und Gewährleistung für Softwaremängel rechtens. Schlimmer noch: Wer das Wort ‘Übereinkunft’ in End User License Agreement womöglich ernst nimmt und nach dem erzwungenen Klick auf den OK-Button über gewisse EULA-Klauseln streiten will, muss unter Umständen damit rechnen, dass ihm der Hersteller rechtmäßig den Hahn abdreht und während des Disputes die Freischaltung gewisser Programmkomponenten aus der Ferne sperrt.

Ein modernes Märchen? In zwei Staaten - Virginia und Maryland - ist das bereits seit zwei Jahren geltendes Recht; vom kommenden Frühjahr an steht das Gesetzeswerk in weiteren Bundesstaaten auf der Tagesordnung. Damit ist UCITA, neben dem Copyright und dem Patentwesen, der dritte Schauplatz des Kampfes, der um die Ausschließlichkeitsrechte tobt.

Die Sache hat nur einen Haken. Wer ein Produkt erwirbt, wird damit zum Eigentümer und erlangt die vollen Verfügungsrechte darüber. Das bedeutet, er kann es unbeschränkt nutzen, (auf eigene Gefahr) verändern, verleihen, wieder veräußern oder neue Nutzungsmöglichkeiten dafür finden - also beispielsweise sein Auto zum Wohnmobil umrüsten. Die Rechte des Eigentümers enden mit der Veräußerung an der klaren Schnittstelle zwischen Hersteller und Kunden, danach hat er nur noch Pflichten, zum Beispiel die Gewährleistung und Haftung für ein einwandfreies Produkt.

So weit wollen die Marktfundamentalisten bei den immateriellen Gütern indes nicht gehen. Deshalb sanktioniert UCITA endgültig das Lizenzmodell; der Kunde zahlt zwar, aber er erwirbt kein Produkt mehr, sondern lediglich die Nutzungsrechte; Eigentum und Verfügungsrechte bleiben bei dem Hersteller. Dieser kann bei Massenprodukten wie etwa Standardsoftware die Nutzung privatrechtlich per Mausklick-EULA einschränken, indem er einseitig Restriktionen beim Anlegen von Backup-Kopien verfügt, die Installation auf einem zweiten Rechner untersagt, die Veränderung oder Verwendung des Codes verbietet, die Weitergabe an Dritte ausschließt und die Veröffentlichung von Vergleichstests unter seinen Genehmigungsvorbehalt stellt.

Eine derart weit gehende Entmündigung des Kunden ist selbst in den USA umstritten. Das IEEE nennt UCITA eine ‘rollende Katastrophe’ und läuft mit einem Memorandum dagegen Sturm [8|#literatur]. Beeindrucken ließ sich die Initiative davon bisher nicht. Die deutsche Urheberrechtsnovelle, immerhin, will ein vergleichbares Ausschalten zulässiger Copyright-Nutzungen auf dem Umweg über Endnutzerverträge unterbinden. ‘Vereinbarungen zum Ausschluss’, heißt es in § 95b des Regierungsentwurfs, ‘sind unwirksam’. Ob die amerikanischen Software-Exporteure darin demnächst ein Handelshemmnis sehen, bleibt abzuwarten.

In der angelsächsischen Rechtsgeschichte entstand das Copyright, anders als das kontinentaleuropäische Droit d’auteur, gerade nicht als Eigentumsrecht der Autoren, sondern als Kopierrecht der Verlage. Es beruht auf Gemeinwohl-orientierten Nützlichkeitserwägungen, während sich das von Frankreich ausgehende Urheberrecht aus einem naturrechtlichen Verständnis vom Eigentum heraus entwickelte [9|#literatur]. Dem ‘Berner Abkommen zum Schutz von Werken der Literatur und Kunst’ von 1886, das in der Tradition des Urheberrechts steht, traten die USA erst 1988 bei. Das unterschiedliche Verständnis besteht bis heute fort; so bleiben im ‘Droit d’auteur’-Modell des Berner Abkommens gewisse Urheberrechte auch nach dem Veräußern der Nutzungsrechte an einem Werk bestehen, während im angelsächsischen Recht die Kontrolle des Autors mit dem Abtreten des Copyrights an einen Verwerter endet. Doch nun betreiben die USA einen Politikwechsel, dessen Drehbuch den Titel ‘Hijacking Berne’ tragen könnte.

Die USA, die zur Förderung des eigenen Verlagswesens bis 1891 selbst ein Jahrhundert lang ausländischen Werken keinen Copyright-Schutz gewährten, aktivieren heute ihre Handelsvertretungen in aller Welt, um dort die Ansprüche der amerikanischen Software-, Musik- und Filmindustrie einzufordern. ‘To copy is to steel’, lautet das Credo des Office of the US Trade Representative (USTR), das über die ausländischen Handelsbeziehungen wacht. Alljährlich verteilt das Büro des Handelsbeauftragten Zensuren und verwarnt in dem ‘Special 301’-Bericht Regierungen, die sich in der Umsetzung oder dem Vollzug der IPR-Standards als zu lasch erweisen. Das Mandat dazu erhielt es vom Kongress mit dem Trade Act 1988, dem Jahr des Beitritts zum Berner Abkommen. Aber das USTR beobachtet nicht nur. ‘Wir setzen erhebliche Mittel ein, um anderen Ländern beim Verfassen guter Gesetze zum geistigen Eigentum zu helfen’, heißt es in einer Selbstdarstellung auf der Webseite.

Das TRIPS-Abkommen von 1994 bereitete dafür den Boden. Als ‘eine historische Leistung’, rühmt es das USTR: ‘Es verlangte von allen WTO-Mitgliedern die Verabschiedung und Umsetzung von Copyright-, Patent- und Markenzeichen-Gesetzen, und gab uns ein starkes Schlichtungsverfahren für Streitfälle, um unsere Rechte zu schützen. Auf diese Weise schufen wir einen Satz von Standards, die zwischen Regierungen einklagbar sind und nicht nur unseren eigenen Handelsgesetzen, sondern multilateralen Regeln genügen ... Wir haben Druck auf alle Länder ausgeübt, damit sie ihren Verpflichtungen nachkommen und nach Möglichkeit die Umsetzung ihrer Verpflichtungen beschleunigen. In der Zwischenzeit waren wir aggressiv und erfolgreich im Gebrauch der WTO-Streitschlichtungsverfahren, um unsere Rechte zu behaupten.’

Unterdessen formiert sich eine wachsende Schar von Rechtswissenschaftlern in den USA gegen das Hijacking der Public Domain. Neben Lawrence Lessig gehören dazu unter anderen James Boyle, Yochai Benkler, Julie Cohen, Brian Kahin, Jessica Litman, Jerome Reichman, Carol Rose und Pamela Samuelson. James Boyle von der Duke Law School beispielsweise bezeichnet das Auftreten der Landlords im Cyberspace bereits als ‘Zweite Einzäunungsbewegung’ - die erste lief im 16. und 17. Jahrhundert in England ab, als die Feudalherren sich die Bauern als Landarbeiter unterwarfen, indem sie das zuvor von Dorfgemeinschaften als Allmende frei genutzte Land einzäunten und es nach ihren Vorstellungen bewirtschafteten [10|#literatur]. ‘Der neoliberalen Orthodoxie, dem Washington-Konsensus’, betont Boyle, ‘scheint die Annahme zu Grunde zu liegen, dass sich die Stärke des geistigen Eigentums umgekehrt proportional zu den Kosten des Kopierens verhält ... Indem die Kosten einer Kopie asymptotisch gegen Null gehen, muss das Recht am geistigen Eigentum die vollständige Kontrolle ansteuern’. Die Ideologie des ‘Eigentum ist gut, mehr Eigentum ist besser’ berücksichtigt aber die so genannten Externalitäten - etwa die Folgewirkungen höherer Transaktionskosten und Markteintrittsbarrieren - nicht.

Wie aber schützt man die kulturelle Allmende vor der Einzäunungsbewegung, die auch vor der Kommerzialisierung des Bildungssektors nicht halt macht? Wohl kaum mit der industriellen Produktion von Bildungsgütern, wie dies vor einiger Zeit die Professoren José Encarnacao, Wolfgang Leidhold und Andreas Reuter mit ihrer ‘Vision 2005’ zur Hochschulentwicklung durch neue Medien propagierten, in der sie ‘das Modell des Betriebes auf die Universität’ übertragen wollen. Über die ingenieurmäßige Vermessung, Standardisierung und Taylorisierung wollen sie eine ‘Bemessungsgrundlage für die Kosten der Bildungsprodukte’ gewinnen, damit die virtuelle Universität diese in Zukunft ‘auf elektronischem Weg mit dem Kunden’ abrechnen kann.

Das heutige duale System der Urhebervergütung. Mit DRM-Systemen auf jedem Endgerät des Users wollen die Medienkonzerne durch die Individualabrechnung jeglicher Medien-nutzung mit dem Endkunden die Pauschal-abgaben ins Abseits drängen.

Als Kontrapunkt zu solchen Vorstellungen hat das Massachusetts Institute of Technology (MIT) gerade ein spektakuläres Beispiel gesetzt. Im Laufe der kommenden zehn Jahre wird die renommierte Universität in Boston die Studienmaterialien im Rahmen des OpenCourseWare-Projektes zu den meisten ihrer rund 2000 Studiengänge und Vorlesungen - Skripte, Klausuren und Video-Vorlesungen - ins Web stellen. Ein Vorhaben, das - so die offizielle Begründung - aus ‘der Sorge über die zunehmende Privatisierung des Wissens’ entstand. Seit dem letzten Monat steht auf ocw.mit.edu das erste Kontingent von 30 Unterrichtsprogrammen aus 17 Fachbereichen zur freien Nutzung bereit; Studenten können das Material ausschlachten, Professoren weltweit für ihre eigenen Vorlesungen verwerten.

Der mutige Schritt des MIT weist die Visionäre des Gütersloher Centrums für Hochschulentwicklung in die Schranken. MIT-Präsident Charles Vest befürchtet keinen Ausverkauf - im Gegenteil. ‘Den Grundstein für die Lernprozesse am MIT bilden der Austausch zwischen Lehrenden und Lernenden im Hörsaal, und der unter den Studierenden auf dem Campus’, ließ er zum Start des Projektes erklären. Die Botschaft ist deutlich: Die Wertschöpfung wird nicht mit ‘geistigem Eigentum’ im Cyberspace, sondern mit unmittelbar erbrachten Dienstleistungen erzielt.

Nicht nur dem Namen nach erinnert OpenCourseWare an die Open-Software-Bewegung. Das Projekt hat auch dieselben Auseinandersetzungen zu befürchten. Denn was die gewählten Hüter des öffentlichen Raumes von der institutionellen Unterstützung der Public Domain halten, stellten sie erst unlängst wieder klar. Noch unter der Clinton-Regierung hatte das Department of Energy (DoE) mit PubScience einen frei zugänglichen Web-Index für wissenschaftliche Veröffentlichungen eingerichtet. Kommerziellen Betreibern wissenschaftlicher Suchdienste wie Infotrieve und Scirus war das ein Dorn im Auge. Daraufhin strich der Haushaltsausschuss des US-Repräsentantenhauses aus dem DoE-Etat 2002 die Summe von 730 000 US-Dollar mit der Maßgabe, das Energieministerium solle sicherstellen, dass seine Informationsdienste ‘nicht in unlauteren Wettbewerb zu vergleichbaren Diensten der Privatwirtschaft geraten’. Am 7. August 2002 gab das DoE die Einstellung von PubScience bekannt. Schlagzeilen machte das nicht. Aber die neoliberalen Anhänger des Subsidiaritätsprinzips hatten wieder einmal gezeigt, wo der Hammer hängt.

Urhebern, die nicht zu den Beschäftigten des Öffentlichen Dienstes zählen und von Honoraren leben müssen, wird das MIT-Beispiel kaum nachahmenswert erscheinen. Hier könnte die Erhebung von Pauschalabgaben auf Endgeräte durchaus eine tragfähige Alternative zu DRM-Systemen darstellen. Die deutschen Verwertungsgesellschaften wie GEMA, VG Wort und VG Bild-Kunst plädieren denn auch dafür, das Kopieren urheberrechtlich geschützter Werke im Privatbereich weiterhin zuzulassen. Seit 1965 ist im Kaufpreis von Speichergeräten und -medien, also von Recordern und Kassetten, ein Pauschalbetrag enthalten, der die Ansprüche der Urheber abgilt. Ähnliche Pauschalentgelte gibt es für Kopiergeräte. Er wird an die Verwertungsgesellschaften abgeführt und von diesen an die Autoren ausgeschüttet.

Nach diesem Modell schloss der Industrieverband Bitkom kürzlich mit den Verwertungsgesellschaften auch einen Vertrag über Urheberabgaben auf CD-Brenner, sodass Hersteller und Importeure künftig für jedes verkaufte Gerät sechs Euro abführen werden. Dies soll aber nur eine Übergangslösung bis zur Einführung von DRM-Systemen bleiben. Grundsätzlich lehnt die Branchenlobby Abgaben auf PCs, Scanner, CD-Brenner und -Rohlinge ab, weil sie die Endgeräte verteuern - ein merkwürdiges Argument, weil die vom CBDTA und der TCPA geplante Hard- und Software-Verdongelung die Geräte auch nicht verbilligen wird.

Als Alternative hat das Modell offenbar keine Zukunft. Es liefe auf eine digitale Spaltung hinaus, wenn die USA auf DRM-Systemen beharren und der alte Kontinent die Pauschalabgeltung dagegen setzte. Der Gegensatz wäre es vielleicht wert, ausgehalten zu werden, aber soviel Mut hat in Europa niemand mehr. Die Weichenstellungen in Richtung DRM sind mit der EU-Richtlinie und dem Regierungsentwurf zur Urheberrechtsnovellierung bereits erfolgt.

Von der Global Information Infrastructure, der euphorischen Befreiungsrhetorik des Internet für alle, ist nicht viel übrig geblieben. ‘Stattdessen schleichen griesgrämige Geister umher, die ihr Geld mit der Aufrechterhaltung des Mangels verdienen, und überzeugen ihre Mitverschwörer, dass unsere billige Duplizierungstechnologie an die Kette muss, damit niemand Kopien machen kann - zumindest nicht von den Gütern, die sie uns verkaufen möchten’, beschreibt John Gilmore, Gründer der Electronic Frontier Foundation (EFF), was er als die ‘schlimmste Art von Wirtschaftsprotektionismus’ bezeichnet. Dessen ungeprüfte Grundannahme lautet, dass die Rechteinhaber auf Grund ihrer besonderen Verletzbarkeit besonders schutzbedürftig seien. So unterbleibt denn auch der Lackmustest, der jedes Gesetzgebungsvorhaben begleiten sollte, nämlich das Gedankenexperiment: Was ändert sich, wenn sich nichts ändert?

Der Verzicht auf einen weitergehenden rechtlichen Schutz digitaler Güter im Urheber- und Patentrecht bedeutete faktisch die Anerkennung der Vervielfältigung und Verbreitung zum Nulltarif. Die Medienkonzerne hätten die De-Industrialisierung des Kulturbetriebs zu fürchten. Dass es dann keine Künstler, Autoren oder Software-Designer mehr gäbe, wäre indes kaum zu erwarten. Die Software-Entwicklung blühte schon, bevor Patente für Programme hoffähig wurden; Kultur und Unterhaltung gab es, bevor Zwischenhändler sie zum Wirtschaftsgut erkoren. Zu erwarten wäre eher, dass sich die Gewichte zu anderen Elementen der ‘Vergütung’ verschieben, nämlich über die Aufmerksamkeit und Anerkennung des Publikums. Gestärkt würde das Reputationssystem, das heute schon im Bereich der freien Software und bei wissenschaftlichen Publikationen die wesentliche Rolle spielt.

Aber solch ein System lebt von der direkten Wechselwirkung und nicht zuletzt dem freien Rollentausch zwischen Urhebern und Rezipienten; es geht zu Lasten der Mittler und Verwerter. Für die Musik- und Medienindustrie ist die elektronische Allmende eine disruptive Technologie - ein Begriff, den der Harvard-Ökonom Clayton M. Christensen prägte und mit dem er die Furcht des Managements vor ‘Disruptionen’ existierender Geschäftsfelder aufgriff [11|#literatur]. ‘Disruptive Technologien sind solche, die neue Produkte auf neuartige Weise hervorbringen. Anfangs kosten sie vielleicht mehr und bieten weniger als die ausgereiften Technologien, doch schließlich werden sie soviel billiger und besser, dass sie die alten Technologien vom Markt verdrängen.’ Beispielsweise waren die Internet-Protokolle disruptiv für die Entwicklung der leitungsvermittelnden Telekommunikation, und so sind es derzeit die drahtlosen Ad-hoc-Funknetze in den lizenzfreien Frequenzbereichen für die UMTS-Mobilfunkbetreiber. Sie stören Kalkulationsgrundlagen und eingespielte Geschäftsmodelle, und oftmals stellen sie ganze Branchenstrukturen in Frage.

Auch die Mechanisierung von Spinnrad und Webstuhl war einst eine disruptive Technologie. Doch während zu Beginn des 19. Jahrhunderts wenige Textilfabriken unzähligen Spinnerinnen und Webern die Existenzgrundlage entzogen, ist es heute genau umgekehrt - P2P-Netze und CD-Brenner von Millionen Nutzern bedrohen das Geschäftsmodell von wenigen Großkonzernen der Musik- und Videobranche. In dieser Situation könnten sich die Dinosaurier der Bewusstseinsindustrie auf ein Business Process Reengineering nur um den Preis der eigenen Existenz einlassen. Stattdessen sehen sie die Lösung im Reengineering der Gesellschaft. Nur schaffen sie das offensichtlich nicht allein. Sie brauchen die Gesetzgeber, um die Rahmenbedingungen zu ihren Gunsten zu wenden. So stehen die Parlamentarier nun vor der Alternative, mit welcher Seite sie es halten sollen - folgen sie den Schalmeien zu strukturkonservierenden Reformen, oder unterstützen sie die Demokratisierung der Informationstechnik. (jk)

[1] http://europa.eu.int/comm/internal_market/en/indprop/softpatanalyse.htm

[2] Mancur Olson, The Logic of Collective Action, Public Goods and the Theory of Groups, Harvard University Press, 1965

[3] Jessica Litman, The Public Domain, 1990, War Stories, 2002

[4] Jean Fourastié, Le grand espoir du XXe siËcle. Gallimard, Paris 1963

[5] Lawrence Lessig, The Future of Ideas, The Fate of the Commons in a Networked World, Random House, New York 2001

[6] Dirk Günnewig, Tobias Hauser, Musik im Hochsicherheitstrakt, c't 16/02, S. 182

[7] Michael Plura, Der versiegelte PC, c't 22/02, S. 204

[8] www.ieeeusa.org/forum/POSITIONS/ucita.html

[9] Volker Grassmuck, Freie Software zwischen Privat- und Gemeineigentum, bpb Bonn, 2002

[10] James Boyle, A Politics of Intellectual Property: Environmentalism for the Net?, 1997. The Second Enclosure Movement and the Construction of the Public Domain, 2001

[11] Clayton M. Christensen. The Innovator’s Dilemma, When New Technologies Cause Great Firms to Fail. Harperbusiness, New York 2000

[12] Rainer Kuhlen, Napsterisierung und Venterisierung. Bausteine zu einer politischen Ökonomie des Wissens, Prokla 126, März 2002

[13] Richard Sietmann, Wettbewerb im Gerichtssaal, c't 17/2001, S. 170 (jk)