Schwarz-Gelb hat es eilig mit dem Presse-Leistungsschutzrecht

Trotz neuer verfassungs- und europarechtlicher Bedenken wollen die Regierungsfraktionen den Gesetzentwurf zur Stärkung von Presseverlegern im Netz doch noch diese Woche beschließen. Eine zweite Anhörung widmete sich technischen Fragen.

In Pocket speichern vorlesen Druckansicht 169 Kommentare lesen
Lesezeit: 5 Min.

Die Regierungsfraktionen wollen den heftig umkämpften Gesetzentwurf zur Stärkung von Presseverlegern im Netz doch noch diese Woche im Bundestag beschließen – trotz neuer verfassungs- und europarechtlicher Bedenken auch in den eigenen Reihen. Mehrere Oppositionspolitiker kritisierten dieses Absicht am Montag bei einer zweiten parlamentarischen Anhörung zum geplanten neuen Leistungsschutzrecht in Berlin. Die Initiative steht mittlerweile auch offiziell auf der Tagesordnung für die Plenarsitzung am Freitag. Grünes Licht für das Vorhaben und eventuell noch anstehende Änderungen der schwarz-gelben Koalition soll der federführende Rechtsausschuss am Mittwoch geben.

Arnd Haller, Justiziar von Google Deutschland, machte bei der Sachverständigenbefragung im Unterausschuss Neue Medien deutlich, dass der Suchmaschinenbetreiber das Gesetz in seiner jetzigen Form "nicht implementieren" könne. Ein Suchrobot müsste dazu nicht nur verstehen, was ein Presseverleger im Sinne des Entwurfs sei, sondern etwa auch, was dieser als periodisch veröffentlichte Sammlung von Nachrichtenartikeln begreife. Außerhalb von Google News seien derlei Anforderungen in der übergeordneten Websuche "schlicht nicht umzusetzen". Er sehe daher schwarz, dass man permanent in die Falle laufen werde, doch auf einzelne journalistische Beiträge zu verlinken, die unter das Schutzrecht fallen.

Über Antworten auf die aufgeworfenen technischen Fragen der Initiative konnten sich Experten zuvor nicht einigen. Wieland Holfelder, technischer Entwicklungsleiter bei Google Deutschland, bezeichnete robots.txt als erfolgreich funktionierenden Internetstandard. Darüber sei "relativ feingranular zu bestimmen", welche Inhalte Suchmaschinen-Crawler erfassen dürfen. So sei etwa auch festzulegen, ob ein Textauszug in Form eines Snippets angelegt werden solle. Bilder oder einzelne Dienste wie Google News könnten ausgeschlossen werden. Man sei zudem "immer offen für Erweiterungen" des Standards, der sowieso ständig angepasst werde.

"Einige Formulierungen" in der von Verlegerverbänden als Ersatz für die Serverdatei und zugehörige HTML-Metatags ins Spiel gebrachte Rechtesprache ACAP (Automated Content Access Protocol) bezeichnete Holfelder als schwierig anwendbar. Teils könne dadurch der Nutzen einer Suchmaschine stark eingeschränkt werden, wenn etwa die Übernahme von Snippets verbindlich vorgegeben würde. So sei damit etwa schwieriger gegen Spam in den Ergebnislisten vorzugehen. Bedarf, gesetzgeberisch einzugreifen, gebe es keine. Verlage wie Axel Springer erhielten nach eigenen Angaben bis zu 80 Prozent der Besucher ihrer Webangebote über Suchportale weitergeleitet. Sollte das Gesetz trotzdem kommen, müsse zumindest eine verbindliche Liste von Verlagen mitgeliefert werden, die darunter fallen sollen.

Für den Bundesverband deutscher Zeitungsverleger (BDZV) betonte dagegen Thomas Höppner, dass Google mit dem News-Angebot ein eigenes Geschäftsmodell aufgebaut habe. So wie andere Aggregatoren, die Nachrichtentexte automatisch auf ihrer Homepage vorsortierten, nähmen die Kalifornier damit den Verlegern Traffic weg. Letztere müssten gute Miene zum bösen Spiel machen, um wenigstens vom kleinen Top des noch durchgeleiteten Verkehrs etwas abzubekommen. Viele Nutzern reiche der rasche Überblick auf Aggregatorenseiten aber aus.

Technische Steuerungsmittel wie robots.txt bieten keine echte Lösung, meint jedenfalls Höppfner. Zum einen würden sie nur von den großen Suchmaschinenbetreibern überhaupt anerkannt. Zum anderen seien die Differenzierungsmöglichkeiten nicht ausreichend. Wer etwa den Bot von Google News sperre, erscheine zugleich auch nicht im voreingeblendeten Nachrichtenblock der normalen Suche, "wo der meiste Traffic herkommt". Man könne also zwar an robots.txt herumfeilen, aber ohne zusätzliche Schutzrecht nütze das alles nichts.

Michael Steidl vom International Press Telecommunications Council (IPTC) kritisierte, dass mit dem bisherigen Standard unterschiedliche Inhalte auf einer Webseite nicht berücksichtigt und Suchmaschinenagenten nur pauschal angesprochen werden könnten. Das Standardisierungsorganisation der Nachrichtenbranche plädiere daher für den Einsatz einer auf ACAP aufbauenden, umfassenden Rechtebeschreibung.

Auch Dirk Lewandowski von der Hochschule für Angewandte Wissenschaften Hamburg stellte robots.txt als "sehr alte Anweisungssprache" dar, die nur eine ungenaue Steuerung ermögliche und zumindest um weitere Funktionen ergänzt werden sollte. Der Forscher bestätigte, dass es Suchmaschinen auf der Ebene einzelner Artikel schwer fiele, deren eventuellen Nachrichtencharakter zu erkennen. Die Weitergabe von Hinweisen auf geschützte Werke über soziale Netzwerke wie Twitter oder Facebook sieht er nicht vom Leistungsschutzrecht betroffen, solange die Nutzer die "Snippets" selbst schreiben und diese verlinken.

Der Vorsitzende des Unterausschusses, Sebastian Blumenthal (FDP), verwies auf die Aufgabe der Abgeordneten, mit den neuen Eingaben der Experten "weiter beratend umzugehen". Die Koalition debattiert derzeit unter anderem über einen Änderungsvorschlag der Liberalen, wonach Snippets nicht unter das Schutzrecht fallen sollen. Eine Einigung über Korrekturen müsste spätestens am Dienstag erfolgen, um diese tags darauf im Rechtsausschuss beschließen zu können. Dessen Vorsitzender, Siegfried Kauder, nimmt Änderungsanträge üblicherweise aber nur mit einer Vorlaufzeit von fünfeinhalb Tagen an. Der CDU-Abgeordnete hatte am Freitag davor gewarnt, das Vorhaben durchs Parlament zu jagen. (axk)