Wearable-Hackathon: Sachen machen mit Sensoren

Am Wochenende des 19. bis 21. Juni entschied das Team "Colortunes" den ersten deutschen Wearable-Data-Hackathon in München für sich. Das Make Magazin saß auf Einladung von Event-Sponsor Intel in der Jury.

In Pocket speichern vorlesen Druckansicht
Wearable-Hackathon: Sachen machen mit Sensoren

"Colortunes": Das Siegerteam war das größte der Veranstaltung. V.l.: Mentor Minh Tri Nguyen, den Designstudentinnen Jin Wan und Xu mei Yu, den Hackern They yu Shu und Binh An Tran, der Designstudentin Hsiu-Ju Lin und der Haeckse Goh Hui Joo.

(Bild: Anika Kehrer)

Lesezeit: 6 Min.
Von
  • Anika Kehrer
  • Philip Steffan
Inhaltsverzeichnis

Im Zentrum des Hackathons am vergangenen Wochenende in München standen freihändig tragbare Maschinchen – so genannte Wearables. Allerdings ging es nicht um Chips, die in der Kleidung sitzen, sondern um fertige Produkte, etwa Smartwatches. Aufgabe war, für die Minigeräte und ihre von Sensoren gesammelten Daten innerhalb eines Wochenendes Verwendung zu finden. Rund 30 Entwickler und Designer nahmen teil. Die Teamgrößen rangierten zwischen einer und sieben Personen.

Einige der Teilnehmer kamen bereits mit Projekten im Gepäck an, die meisten ließen die Dinge vor Ort auf sich zukommen. Das Siegerteam zum Beispiel zählte sieben Köpfe aus China, Taiwan, Vietnam und Malaysia, die halb-halbe aus Designern und Entwicklern bestanden und sich erst auf dem Event kennenlernten. Die fünf Mitglieder des Projekts "Sensor Dashboard" hingegen kannten sich größtenteils. Sie hatten ihre gleichnamige und insbesondere fürs Making äußerst verdienstvolle App zum Untersuchen aller möglichen Sensorenwerte bereits auf einem anderen Hackathon im vorigen Jahr begonnen. Insgesamt schwirrten auf der Veranstaltung ein Dutzend Ideen herum, neun Projekte waren in Arbeit, von denen acht dann am Ende ihre Ergebnisse zeigten.

Das Siegerteam hatte am Ende des knapp zweitägigen Sprints eine leidlich funktionierende Google-Glass-App vorzuweisen, mit der sich Farben hören lassen: Das auf der Nase sitzende Gerät fotografiert, wertet aus und gibt direkt am Ohr einen Ton aus – sozusagen einen Farbton. Die Software gibt es auch für Smartphones. Ein Nebenprojekt war, das Smartphone in ein Google Cardboard einzusetzen und ebenfalls Farben zu erkennen. Obwohl die finale Demonstration etwas stockte, überzeugten Idee, Anwendungsperspektive und das Erreichte.

Wearable-Hackathon mit Intel (15 Bilder)

Der Wearable Data Hack Munich 2015 von innen.

(Bild: Anika Kehrer)

In ihrer Präsentation spannten die Teilnehmer zudem eine Perspektive auf, in der neben Farben auch Räume oder Landschaften in eine Tonsprache transferiert werden könnten. Insbesondere für Sehbehinderte, so die Intention, wäre das eine ganz neue Form, in Tonbeschreibungen die Umwelt zu erfassen. Im grunde läuft das auf eine neue Sprache hinaus. Die Jury fand: Eins – setzen, und drückte ihnen das Siegerpaket aus Pulsmesser-Kopfhörern, einer Android-Smartwatch, mehreren Gutscheinen von Github und Rantastic sowie Konferenztickets in die Hand.

Drei der Teilnehmer hatten sich entschlossen, ihre Idee im Alleingang zu verfolgen. Dazu gehört die zweitplazierte Lina Suarez. Bei den Plätzen Zwei und Drei fiel das Abstimmungsstechen der Jury gleichwertig aus: Suarez' "Stitch Counter" teilte sich den zweiten Platz mit der Smartwatch-Anwendung "Senti". Der dritte Platz entfiel.

Bei "Stitch Counter" hilft der Rotationssensor, die Stiche beim Stricken zu zählen. Nicht mehr zu wissen, wo man war, ist damit für Strickfans Vergangenheit. Das fand die Jury äußerst praktisch, zumal sich die Teilnehmerin allein durch Sensordatenvalidierung und Kallibrierung boxte. Am Ende legte sie eine simple, aber leidlich funktionierende Uhren-App vor.

"Senti" verfolgt einen ähnlichen Ansatz wie "Colortunes", doch statt visueller Daten wandelt das Device Töne um – und zwar in Vibration. Als Anwendungsfälle sehen die fünf Ad-hoc-Teammitglieder einerseits Gehörlosigkeit, andererseits Entertainment, zum Beispiel durch Rütteleffekte passend zu krachenden Geräuschen. Die Idee brachte die 22-jährige Designstudentin Pei-Yu Shen mit. Sie stammt aus ihrer Masterarbeit, für die die junge Taiwanesin ein halbes Jahr in Deutschland ist. Sie hatte sich erhofft, auf dem Hackathon Entwickler zu treffen, mit denen sie zur Praxis schreiten könnte – und so geschah es dann auch.

Drei weitere Projekte stechen heraus. Bei "Handdrawn" ist es die Verbindung aus Bilddaten aus einer elektronischen Zeichnung und den Bewegungsdaten des Handgelenks aus Smartwatch-Sensoren, während die Zeichnung erstellt wird. Nicht nur – so das beispielhafte Anwendungsszenario des Münchner App-Entwicklers Lyubomir Ganev – ließen sich damit digitale Unterschriften authentifizieren, indem nicht nur die Form der Unterschrift, sondern auch die individuelle Schreibdynamik passen muss. Sondern es erscheint auch interessant, auf diese Weise künstlerisches Zeichnen untersuchen zu können. Die App wurde am Wochenende nicht fertig und soll noch weiter entwickelt werden.

Im Gegensatz dazu zeigte der Ukrainer Igor Andreichyn mit seinem sehr praktisch orientiertem Projekt "Bike Map" einen fertigen Proof of Concept. Die Smartwatch an seinem Handgelenk, fuhr er durch München und zeichnete Erschütterungen oder Behinderungen durch stark von Fußgängern frequentierte Wegabschnitte auf. Als Ergebnis zeigte er eine Karte, die die Fahradwegqualität verzeichnet. Leider ist die Software nicht autark: Um die Route nachvollziehen zu können ist ein GPS-Empfänger notwendig, zum Beispiel im Smartphone, weil Smartwatches bisher nicht darüber verfügen.

Schließlich präsentierte das besondere Team "Just a Dash“ seine Arbeit: Dalton Scott ist 14 Jahre alt. Seine Mutter Rose nahm mit ihm zusammen an dem Hackathon teil, auf dass er mit Spaß ein wenig lerne. Aus ihrem Hintergrund als CRM-Spezialistin brachte sie das Praxisproblem mit, dass Managern oft das Einloggen in die Software zu aufwändig ist – und ihnen so nützliche Daten entgehen.

Die Lösung ist eine simple Smartwatch-App: Mit einem Klick zeigt sie zum Beispiel die umsatzstärksten Filialen eines Gebietes an, mit einem weiteren Klick die umsatzschwächsten. Welche höchsten und niedrigsten Werte die App anzeigt, kann man konfigurieren. Auch ließen sich nicht nur ein Wertepaar, sondern auch drei aus dem CRM auslesen und am Handgelenk anzeigen. Diese Teamleistung von Mutter und Sohn bedachte die Jury mit einem Sonderpreis. (phs)