ApacheCon Europe: Apache Software Foundation feiert 10-Jähriges (1. Tag)

Die Apache Software Foundation feiert auf der diesjährigen ApacheCon Europe ihr 10-jähriges Bestehen. Der erste Konferenztag stand im Zeichen von Cloud Computing und der Hadoop-Technik.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 5 Min.
Von
  • Alexander Neumann

Diese Woche findet im Mövenpick Hotel in Amsterdam die ApacheCon 2009 Europe statt. Der gestrige erste Tag war gleichzeitig der Start für eine dreitägige Geburtstagsfeier zum zehnjährigen Bestehen der Apache Software Foundation (ASF), die, obgleich sie eigentlich im Juni 1999 gegründet wurde, ihre beiden jährlich sich wiederholenden Community-Events in Europa und in den Vereinigten Staaten nutzt, dieses Ereignis ausgiebig zu würdigen.

Die ASF folgt dem Prinzip "Community over Code", was auf dem Event deutlich zu spüren ist, gleicht die Stimmung mehr einer großen Feier statt einer Konferenz, die Themen zu aktuellen Techniken und Themen bereithält. Es kommt einem vor, als würde man sich einfach nur mit alten Freunden treffen.

Nach der Begrüßung und einer kurzen Einführung der zu erwartenden Themen gab Mitgründer Lars Eilebrecht einen Überblick über die Entstehung der ASF und die wichtigsten Ereignisse der letzten Jahre. Hierbei sind an erster Stelle die neuen Top-Level-Projekte Archiva, CXF, Tuscany, TAC, Abdera, CouchDB, Buildr und Qbid zu nennen. (Einen detaillierten Überblick nach Jahren aufgeschlüsselt erhält man übrigens auf der "ASF Highlights: 1999-2009"-Seite.

Die Eröffnungs-Keynote hielt Raghu Ramakrishnan, verantwortlich für das Thema Cloud Computing bei Yahoo, zum Thema "Data Management in the Cloud". Sein Vortrag wies auf die "Vision" von Cloud Computing aus Yahoo-Perspektive hin. Die weiteren Vorträge teilten sich in folgende Themengebiete auf:

  • Data Mining and Search Technologies
  • Geeks for Geeks
  • Business and Community
  • OSGi and Geronimo

Sie umfassten Techniken wie Lucene, Jackrabbit, OSGI, Geronimo, Felix, aber auch Themen wie Open Source im Business-Kontext und Lizenzen. Den Tag bestimmte vor allem die Hadoop-Technik, denn der komplette "Geeks for Geeks"-Track umfasste ausschließlich Vorträge über ihre Funktionsweise, Vorteile, Einsatzgebiete, Entwicklung und Erfahrungsberichte. Die Sessions hierzu wurden vor allem von Yahoo-Mitarbeitern gehalten, kein Wunder, ist Hadoop ein durch diese Firma eingebrachtes Projekt. Es handelt sich um ein Java-Framework für verteilt arbeitende Softwaresysteme (skalierend). Es lehnt sich an den von Google entwickelten MapReduce-Algorithmus an und ermöglicht, intensive Rechenprozesse mit großen Datenmengen (im Petabyte-Bereich) auf Cluster-Basis durchzuführen. Yahoo nennt unter anderem Cluster-Systeme, die 2000 bis 3000 Nodes umfassen.

Den Anfang der Hadoop-Schiene machte Owen O'Malley, der in einer Einführung einen groben Überblick über die Funktionsweise von Hadoop hielt und auf Fragen einging wie, für was ist Hadoop eine gute Wahl und warum wurde Hadoop ins Leben gerufen. Darauf folgte Arun Murthys sehr technischer Vortrag "Hadoop Map-Reduce: Tuning and Debugging", der sich mit bekannten Problemen und deren Lösungen auseinandersetzte.

Olga Natkovich beleuchtete Pig und machte deutlich, warum es eine gute Idee ist, Pig zu verwenden, wenn man ein Programm auf Hadoop-Basis schreiben will. Es war einfach unglaublich zu sehen, wie aus 150 Zeilen Sourcecode auf einmal 8 wurden. Pig ist eine "Highlevel-Sprache" und erlaubt es, auf einfache und schnelle Weise Programme zu schreiben, die Hadoop verwenden.

Ein weiterer Vortrag widmete sich der Verwendung von Hadoop im Cloud-Computing-Kontext. Tom White befasste sich größtenteils mit dem Zusammenspiel von Hadoop und Amazon EC2. Er zeigte eine kostengünstige Möglichkeit, einen Hadoop-Cluster für einen "Analyselauf" zu verwenden. Neben den eher programmierlastigen Vorträgen (bezogen auf Hadoop) folgten Vorträge zu den Einsatzgebieten und der Verwendung. Den Anfang machte Allen Wittenauer mit "Configuring Hadoop for Grid Services", der einen Einblick über den Einsatz von Hadoop bei Yahoo! gab. Durch Steve Loughrans Vortrag "Dynamic Hadoop Clusters" wurde schließlich klar, warum Hadoop ein so gefragtes Thema ist und so viel Raum auf der ApacheCon erhält.

Trotz der vielen Vorträge konnte man immer wieder beobachten, wie sich Leute zur gemeinsamen Entwicklung und Problembesprechung im Hackathon-Raum trafen und austauschten. Es ist spannend zu beobachten, wie sich die einzelnen Entwickler der unterschiedlichen Projekte treffen, um die nächsten Features oder Bugfixes zu diskutieren. Schön ist auch, dass oft Entwickler aus verschiedenen Projekten gemeinsam am Einsatz von Projekt A in Projekt B arbeiten. Ganz nach dem bei Apache allgemein gültigen Prinzip: "Eat your own dog food!"

Zum krönenden Abschluss des Tages durfte Jim Jagielski (einer der ASF-Gründer) abends die vorzüglich schmeckende Geburtstagstorte im Beisein der Besucher anschneiden, untermalt von einem lauten Geburtstagsständchen. Den Glückwünschen ist sich an dieser Stelle anzuschließen: "Happy Birthday, dear Apache Software Foundation!" (Norman Maurer)

Lesen Sie dazu auch:

(ane)