Myrrix soll Cloudera beim "Big Learning" helfen

Hadoop-Spezialist Cloudera hat eine erste Akquisition getätigt: Myrrix, ein Londoner Start-up, dass sich auf Machine Learning spezialisiert hat, soll Hadoop "Big Learning" beibringen. Gründer Sean Owen wird Director of Data Science bei Cloudera.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 2 Min.
Von
  • Julia Schmidt

Cloudera, ein amerikanisches Software-Unternehmen, das eine eigene Hadoop-Distribution vertreibt, hat das Londoner Start-up-Unternehmen Myrrix übernommen. Das verkündete Gründer Sean Owen in einem Blogeintrag auf Clouderas Website.

Owen nimmt bei Cloudera die Position des Director of Data Science ein und soll wohl dabei helfen, Wege zu finden, wie sich Hadoop besser zum Machine Learning nutzen lässt. Zwar sei die Disziplin schon einige Jahrzehnte alt, Hadoop und die immer billiger werdende Hardware rückten sie jedoch nun wieder in den Fokus, da sich mit einer größeren zu Grunde liegenden Datenmenge generell bessere Ergebnisse erzielen ließen ("Big Learning", Machine Learning mit Big Data). Laut Owen gäbe es allerdings Schwierigkeiten, die Implementierungen der Lernprozesse so anzupassen, dass sie auch tatsächlich mit verteilt liegenden Daten arbeiten können, gingen doch Großteile der Forschung davon aus, dass alle Daten auf einer Maschine zu finden seien. An dieser Stelle soll er sein mit Myrrix erlangtes Fachwissen anbringen, um es Kunden zu erleichtern, entsprechende Anwendungen umzusetzen. In welcher Form das passieren wird, ist allerdings noch eher unklar, momentan ist man wohl mit der Frage beschäftigt, wie sich die bei Myrrix entwickelte Technik in Clouderas Hadoop-Distribution CDH integrieren lässt.

Sean Owen hat Myrrix 2012 gegründet, um unter dem selben Namen ein mit Apache Mahout arbeitendes, echtzeitfähiges, skalierbares Empfehlungssystem zu entwickeln und zu vermarkten. Die Wurzeln des Projekts reichen aber bis ins Jahr 2005, in dem Owen, der damals bei Google angestellt war, Implementierungen von grundlegenden Empfehlungsalgorithmen mit dem quelloffenen Taste-Projekt bereitstellte. 2006 gingen die Implementierungen zum Clustern und Klassifizieren in Apache Mahout ein und wurden im Zuge von Taste 2 so überarbeitet, dass auch verteilt arbeitende Umsetzungen mit Hadoop möglich waren. (jul)