Interview mit Scott Bradner: Die IETF war immer schon politisch

Bradner, einer der führenden Köpfe der Internet Egineering Task Force, blickt zurück auf sein Engagement: IPv6 habe zu wenig Karotten und sei überhaupt zu kompatibel zu IPv4 geworden, kritisiert er. Auch sei IPv4 leider noch nicht reif zum Abwracken.

In Pocket speichern vorlesen Druckansicht 24 Kommentare lesen
Interview mit Scott Bradner: Die IETF war immer schon politisch

(Bild: Imagining the Internet Center at Elon University)

Lesezeit: 17 Min.
Von
  • Monika Ermert
  • Dusan Zivadinovic
Inhaltsverzeichnis

Die Internet Engineering Task Force, IETF, hat mit dem IP-Protokoll die Netzwerkwelt umgekrempelt und Scott Bradner gehörte zu den führenden Köpfen, die die Richtung mitbestimmt haben. Vom 17. bis zum 22. Juli tagte die IETF einmal mehr in Berlin, aber Bradner war nach fast drei Jahrzehnten Zugehörigkeit nicht mehr dabei.

Im Gespräch mit heise online blickt der Harvard-Netzwerker zurück und verteidigt die Organisation: Schon vor Snowden sei Vertraulichkeit ein Thema in der IETF gewesen und sie sei auch früher schon politisch gewesen. So politisch beispielsweise, dass sie während einer Schlacht zwischen dem Internet-Protokoll- und OSI-Lager in einer Revolte ihre Peers selbst entmachtete. Sonst sähe das Internet heute vielleicht ganz anders aus.

heise online: Scott, wie war Ihre erste IETF? Wie sehr hat sich die IETF verändert?

Scott Bradner

Scott Bradner gehört zu den prägenden Köpfen der Internet Engineering Task Force. Der Harvard-Forscher und langjährige Aktivist der Internet Society gehörte auch zu den Leitern der nordamerikanischen IP-Adressvergabestelle ARIN. Bradner prägte 1996 auf einer Konferenz des Harvard Information Infrastructure Project zwei noch heute aktuelle Gretchenfragen des Internet: "Wer bestimmt, wer die Regeln macht?" und "Wer bestimmt, wer das bezahlt?"

Scott Bradner: Meine erste IETF fand in Tallahassee, Florida, statt. Es waren nur ein paar hundert Leute da und nur wenige Arbeitsgruppen. Und ich war einfach irgendein junger Kerl ohne genaue Idee, was da vor sich ging. Also hab ich mich reingesetzt und mir das angehört. Meine erste Arbeitsgruppe war die fürs Dynamic Host Configuration WG.

heise online: Und die gibt es sogar noch immer! War es noch mehr ein Treffen von Geeks als heute?

Es war ziemlich geeky. Ich wurde sofort in die technischen Diskussionen hineingezogen und ein paar Leute nahmen mich mit in ein Restaurant, um eine Lösung für ein technisches Problem auszuarbeiten. Es hat sich gut angefühlt, dabei zu sein.

heise online: Welche technischen Fragen haben Sie zur IETF gebracht?

Ich hatte das erste Netzwerk für Harvard aufgebaut und spätere mit entworfen. Als ich zum ersten Mal zur IETF fuhr, war ich Leiter und Mitbegründer eines regionalen Netzes mit Leuten der Boston Universität und dem MIT. Daher habe ich mich in Harvard seit den späten 80ern mit Routing, dem Internet allgemein und dem IP-Protokoll beschäftigt. Und die IETF war das Forum, wo man sein musste, um das zu diskutieren.

heise online: Und heute?

Die Arbeitsgruppen sind riesig, manchmal doppelt so groß wie früher das ganze Treffen. Aber es sind nicht doppelt so viele Leute auch aktiv. Nur ein kleiner Teil der Teilnehmer trägt direkt zur technischen Entwicklung bei. Viele sind nur Zuschauer.

heise online: Ist das schlecht für die IETF?

So ist es bei allen Standardisierungs- und Technologiegremien. Es gibt die führenden Köpfe, die Zuschauer und die, die gelegentlich eine gute Idee beisteuern oder auf einen Aspekt aufmerksam machen. Es gibt aber mehr leidenschaftliche Debatten über nicht-technische Fragen.

heise online: Und gibt es auch noch kontroverse Debatten über die Technologie?

Aber sicher. Die Debatten rund um IPv6 beispielsweise. Es gab eine Menge fundamentaler Differenzen und am Ende haben wir uns auf einen Kompromiss geeinigt. Es funktioniert, aber es war ein Kraftakt damals.

heise online: Hätte IPv6 dabei nicht so konzipiert werden können, dass es stärker kompatibel ist mit IPv4?

Das Problem ist, es ist zu kompatibel.

heise online: Es ist zu kompatibel?

Ja. IPv6 arbeitet praktisch genauso wie IPv4, man bekommt die gleichen Dienste. Die Funktionen des Netzwerks und der Betrieb, wie man einen Host konfiguriert, das ist nahezu gleich. Das heißt in der Konsequenz, dass die Leute fragen, was springt denn raus, wenn ich migriere. Das große Argument ist "mehr Adressen" – gut, aber ich hab schon genug Adressen. Es gibt einen "sweet spot" für jede zweite oder dritte Generation einer Technologie. Sie muss ausreichend geläufig sein. Damit man nicht alle Leute neu schulen muss. Gleichzeitig muss es ausreichend Grund geben, den Aufwand zu rechtfertigen. Und es hat sich gezeigt, IPv6 bietet nicht genügend Karotten. Ursprünglich hat man mit dem Mehr an Sicherheit geworben. Aber die wurde in IPv4 nachgerüstet.

heise online: Das trifft bei IPv4 sogar auf viele Dinge zu.

Genau. Wir hatten die Chance, IPv6 besser zu machen, auf eine Art, die manche von uns für besser gehalten haben. Aber der Konsens der Community war, dass eine inkrementelle Verbesserung das Mittel der Wahl ist und nicht ein dramatischer Wandel. Die Diskussion war eine sehr interessante Erfahrung.

heise online: Sie waren der verantwortliche Direktor für Transportprotokolle während dieser Debatte.

Es wurde eine spezielle Area gebildet, die Allison Mankin und und ich leiteten. Als erstes haben wir mal einen Aufruf rausgeschickt: "Next generation Internet Protokoll, was sollte Ihrer Meinung nach drin sein?" Wir haben es überall hingeschickt und schon das war schon kontrovers. Es gabe Leute in der IETF, die fanden, wir sollten das einfach entscheiden, basta, warum die italienische Navy mitreden lassen – die hat sich übrigens wirklich zu Wort gemeldet.

Als Allison und ich ankündigten, dass wir uns 18 Monate für den Prozess geben wollten, gefiel das manchen nicht. Sie sagen, wir kennen doch die Antwort und können den Standard beim nächsten Treffen fertig machen. Allerdings waren das Leute mit einem eigenen Vorschlag. Das spielte sich vor dem Hintergrund der "Protokoll Wars" ab.

heise online: Dem Streit darüber, ob IP oder OSI die Basis für die Weiterentwicklung des Internet wird.

Die traditionellen Standardisierungsorganisationen wie die ISO und viele Regierungen hatten dekretiert, dass das OSI-Protokoll die Basis für die Zukunft sein sollte. Und es gab Leute in der IETF, die das befürworteten und zwar sehr entschieden. Auch das Internet Architecture Board (IAB) gehörte zu dieser Gruppe. Darum wurde das IAB später auch abgesetzt.

heise online: Der Streit hat in der IETF letztlich eine Revolution ausgelöst.

Kobe steht für diese Revolte in der IETF. Beim IETF-Treffen in Kobe hatte das IAB eine Roadmap für das künftige Internet Protokoll fertiggestellt. Demnach würde man von IP auf OSI switchen. Die IETF-Community war damit nicht einverstanden. Und so kam es zur Palastrevolte, die darin mündete, dass das IAB seiner Rolle im Standardisierungsprozess enthoben und durch die Internet Engineering Steering Group (IESG) ersetzt wurde. Alle Nominierungsprozesse innerhalb der IETF wurden auf ein Nominierungskomitee (NomCom) übertragen. Das war 1992. Zuvor hatten sich die Vorsitzenden ihre Kommissionsmitglieder selbst ausgesucht. Der IAB-Vorsitzende ernannte die IAB-Mitglieder und der IESG-Vorsitzende ernannte die IESG. Das übernahm das NomCom.

heise online: Das klingt nicht nach einem kleinen Beben, eher nach einer Verschiebung von Kontinentalplatten.

Das IAB hatte zwei Sünden begangen. Die erste war die Entscheidung für OSI. Die zweite war, dass sie den Entwurf eines Standarddokuments zu Ethernet MIP auf dem Weg von der Arbeitsgruppe zum RFC-Editor änderten anstatt ihn mit einer Kommentierung an die Arbeitsgruppe zurückzuschicken. Wir waren der Ansicht, dass das IAB sich falsch verhalten hatte. Statt der einsamen, eigenmächtigen Entscheidung hätten sie diese der Community überlassen müssen.

heise online: Zurück zu IPv6 – was war Ihrer Meinung nach der größte Fehler bei der Entwicklung?

Dass die Unterschiede zu IPv4 nicht groß genug waren. Im Verlauf der Entwicklung hat die Arbeitsgruppe ein paar Fehler gemacht. In der Auseinandersetzung um IPv6 gab es zwei große und ein kleines Lager. Ein Lager war für die Evolution von IPv4, eines für OSI, also TCP und UDP auf dem OSI-Paketformat. Zum Teil entsprang dieser Vorschlag der Idee von variablen Adresslängen. Viele Leute hielten das für zukunftssicher. Ein Teil der Leute fand auch, dass das OSI-Routing der bessere Ansatz war. Allison und ich haben den Fehler gemacht, Routing auszuschließen.

Wir hätten zusammen mit Next Generation IP auch überlegen sollen, ob es nicht bessere Möglichkeiten fürs Routing gibt als die rein hierarchische, die wir seit dem Start der v4-Ära haben. Wir hatten die Chance und auch Vorschläge. Aber wir haben definiert, dass Routing nicht Teil des darunter liegenden Protokolls ist. Ich glaube, es hätte bessere Lösungen gegeben.

Der andere Fehler ist, dass wir uns für Adressen mit fester Länge entschieden haben. Die Entschiedung war eine Kombination aus technischen und politischen Erwägungen. Wir hatten einen Entwurf, der mit IPv6-Adressen variabler Länge arbeitete, den Big10-Vorschlag.

heise online: Woher kommt dieser Name?

Der Vorschlag wurde im Big10 Konferenzzentrum bei Chicago vorgestellt. Es war das Treffen, bei dem festgelegt werden sollte, wie IPv6 aussehen sollte. Allisson und ich haben das Ipng-Direktorat und die Vertreter der verschiedenen Vorschläge dort versammelt. Wir haben Vorschläge und Anforderungen nebeneinander gelegt und Allison und ich haben schließlich entschieden, dass kein Vorschlag alle Anforderungen gut genug einlöst. Am nächsten Morgen hatten wir dann eine neue Version des einen Lagers. Darum haben wir nun IPv6 mit fester Adresslänge und den evolutionären Entwicklungsansatz.

heise online: Warum musste die Entscheidung zu diesem Zeitpunkt fallen?

Wir waren von Beginn an unter Druck, weil es Leute gab, die sagten, die Lösung ist klar. Allison und ich fanden das nicht. Wir wollten uns mehr Zeit nehmen, um es richtig zu machen. Wir hatten bei der Big10-Konferenz einen Entwurf mit variablen Adressen. Der hätte eine Zukunftssicherheit gebracht: Man hätte kurze Adressen für kleine Umgebungen gehabt und längere nutzen können, wenn das Internet größer wird, wie jetzt durch das Internet der Dinge.

heise online: Was eigentlich sehr gut klingt.

Ja, aber darüber entstand ein politischer Streit, der wiederum mit OSI zu tun hatte. Viele Regierungen hatten Millionen, manche zig Millionen dafür ausgegeben, Adresspläne für die Netze in ihren Ländern zu entwickeln. Das waren OSI-Adressen und bei IETF-Treffen argumentierten sie, wenn wir die Möglichkeit hätten, größere Adressen zuzulassen, sollten wir das auch tun. Aber die meisten von uns hielten das für eine schlechte Idee, weil die Adresspläne entlang politischer Grenzen entwickelt waren, nicht entlang technischer Möglichkeiten. Die Hierarchien waren also die von Armeegenerälen, nicht die eines gewachsenen Netzes, und dafür gab es keinen Konsens. So bekamen wir die Adressen mit fester Länge, die wir jetzt als IPv6 haben.

heise online: Sollte IPv4 jetzt schon zum historischen IETF-Standard erklärt werden?

Das ist Symbolik. Die IETF sollte jedoch nicht mehr viel für IPv4 entwickeln. Einen Standard, der noch immer auf Millionen von Computern implementiert ist, trotzdem zum historischen Standard zu erklären, hätte aber kaum eine Wirkung.

heise online: Wir haben über Veränderungen in der organisatorischen Struktur gesprochen, wie beurteilen Sie den Sturm der Entrüstung über die Diskriminierung von Schwulen in Singapur, das als Konferenzort für die IETF 100 ausgewählt wurde? Das gab es vor 20 Jahren sicher noch nicht.

Vor 20 Jahren hätte man nicht über dieses spezielle Thema diskutiert, einfach weil die Rechte von Homosexuellen kein öffentliches Thema waren. Was nicht heißt, dass es das Problem damals nicht gegeben hat. Es gab aber andere Dinge, die heiß diskutiert wurden, Zensur etwa. Soll die IETF in Länder gehen, in denen das Netz vom Staat kontrolliert wird, das ist seit langem ein Thema.

heise online: Die IETF ist aber in die Volksrepublik China gegangen.

Ja, aber wir hatten dort ein offenes Netz. Das war Bedingung. Unser Netzverkehr in Peking wurde direkt in die USA geschleust und nicht überwacht. Das galt natürlich nur für das Konferenzhotel. Wer sich außerhalb bewegte, der unterlag der chinesischen Zensur, bekam kein VPN und so weiter. Aber immerhin war unser Konferenznetz sauber. Jetzt wieder hinzugehen wäre schwierig. Die Situation dort hat sich verschlechtert.

heise online: Sollten Ihrer Meinung nach auch erweiterte Kritierien wie die Diskriminierung bestimmter Gruppen berücksichtigt werden bei der Wahl von Konferenzorten?

Solche Dinge werden sicher verstärkt berücksichtigt. Absolute Aussagen sind aber heikel. Nehmen wir mal North Carolina als Beispiel. Dort wurden kürzlich sehr diskriminierende Gesetze verabschiedet. Heißt das, wir gehen nicht mehr nach North Carolina? Dabei sind es nicht öffentliche Behörden, die diskriminieren, sondern private Läden. Wollen wir wirklich eine Art Zero-Tolerance-Regelung oder wollen wir jeweils die tatsächliche Situation betrachten und sagen, naja, solange man nicht am Strand Liebe macht, passiert einem nichts? Einfache Antworten sind meiner Meinung nach immer falsch, auch in der Technik.

heise online: Ist die IETF politischer? Immerhin gibt es bei der Internet Research Task Force jetzt sogar eine Menschenrechtsarbeitsgruppe.

Wir sind nicht politischer geworden. Wir haben uns nur mit anderen Problemen befasst. OSI versus IP, das war hochpolitisch. Es gab Zeiten als IP in manchen europäischen Netzwerken illegal war. In vielen Standardisierungsorganisationen hätte es das nicht gegeben, dass man sich für eine derart disruptive Technologie entscheidet. Bei der ITU etwa wird sehr genau der Effekt einer Technologie auf die Anbieter berücksichtigt. Die IETF ist zwar offen für alle, aber, sie lädt die, die betroffen sein könnten, nicht extra ein und sagt, wir machen nicht weiter solange ihr nicht hier seid.

heise online: Was haben die Snowden-Enthüllungen für die IETF bedeutet?

Als solche nichts, würde ich sagen. Vertraulichkeit und Sicherheit waren schon immer Thema in der IETF, das hat sich in der Raven-Debatte deutlich gezeigt.

heise online: Damals hatten US-Behörden anscheinend verlangt, Überwachungsschnittstellen in Standards vorzusehen.

So direkt haben sie das nie gesagt. Viele Länder haben Auflagen für solche Schnittstellen. In den USA gab es Calea. Demnach mussten Telefonanbieter Schnittstellen für berechtigte Anfragen von Strafverfolgern vorhalten. Eine Reihe traditioneller Hardware-Hersteller waren bei der Standardisierung, bei der wir mit der ITU zusammenarbeiteten, mit von der Partie. Die wussten, dass sie kein Stück Hardware verkaufen konnten, das die Schnittstelle nicht hatte. Der Chef der Arbeitsgruppe, Tom Taylor brachte das Thema zu mir und sagte, Überwachungsschnittstellen seien nicht sein Job. Daher organisierten wir eine IETF-weite Debatte zu dem Thema, das war die Raven-Liste.

Ein Sprecher des FBI hat in der Debatte behauptet, das Gesetz verpflichte uns, die Schnittstellen in die Standards einzubauen. Das war sachlich schlicht falsch und die IETF-Community entschied sich schließlich, dass es keine klaren, weltweit einheitlichen Anforderungen zur Überwachung gibt. Zudem verstand man den Einbau der Schnittstellen als Hintertür, aber es gibt keine magischen Hintertüren – sie sind für jeden offen, der sie findet, nicht nur für die großen Jungs.

Drittens sollten die Leute Ende-zu-Ende-Verschlüsselung benutzen und das hätte die Ausleitungsschnittstellen letztlich nutzlos gemacht. Das alles wurde in einem RFC geschrieben.

Snowdens Enthüllungen waren also nichts Neues, sie haben uns nicht plötzlich vor Augen geführt, dass da etwas faul ist. Allerdings haben sie Anstrengungen zu etwas beschleunigt, das unter dem Stichwort umfassende Verschlüsselung oder ubiquitäre Verschlüsselung und auch opportunistische Verschlüsselung läuft. Das bedeutet, du verschlüsselst, weil du kannst, nicht mehr, weil du besonders sensible Inhalte verbergen willst. Verschlüsselung wird zum Normalbetrieb.

heise online: Dennoch, haben Ihnen die Enthüllungen Angst gemacht?

Wir wussten, wie Daten gesammelt werden können, wir kannten Echelon. Was wir nicht wussten, war, dass die NSA versucht hat, den Standardisierungsprozess zu unterwandern, um Verschlüsselung schwächer zu machen. Es gab Verdachtsmomente, aber wir wussten es nicht. Was Snowden wohl für die Gesellschaft insgesamt bewirkt hat, war, dass Dinge, die vorher nur gemutmaßt werden konnten, unwiderlegbar wurden.

Man konnte nicht mehr sagen, "das würden sie doch niemals tun". Vor Snowden vermutete man, dass große Datensammlungen angelegt wurden bei der NSA und dem FBI. Aber man dachte, dass sich das auf Personen bezog, gegen die die Behörden einen berechtigten Verdacht hatten, abgesehen davon, ob sie das mit oder ohne Gerichtsbeschluss taten. Wir nahmen an, eher ohne. Dass sie hinter den Daten von jedermann her waren, wussten wir tatsächlich nicht. Dass sie den ganzen Heuhaufen wollten. Das hat Snowden klargestellt. (dz)