Macoun 2016: Entwicklerkonferenz zu Cocoa, Swift und Co

Seite 2: Adaptivität

Inhaltsverzeichnis

Max Seelemann, einer der diesjährigen Gewinner eines Apple Design Award, analysierte die mittlerweile beeindruckende Vielfalt von Screen-Größen und die sich daraus ergebenden Herausforderungen. Unter Berücksichtigung von Hoch- und Querformat sowie Slide Over und Splitview auf dem iPad ergeben sich über alle iOS-Geräte hinweg 22 verschiedene Größen, für die Entwickler ihre Apps optimieren müssen. Apple liefert mit dem Split View Controller zwar vorgefertigte Lösungen, die je nach Bildschirmgröße eine App entweder in mehreren Spalten oder in einer Navigationshierarchie darstellen. Allerdings sind diese Lösungen recht beschränkt und lassen keinen Raum für Anpassungen. Ein gutes Beispiel ist Apples iPad Mail App, die im Hochformat keine Spaltendarstellung verwendet, im Gegensatz zu den Einstellungen, die basierend auf dem Split View Controller ein zweispaltiges Layout verwenden. So zieht Seelemann das ernüchternde Fazit, dass für ein optimiertes Layout in allen Größen nach wie vor Handarbeit angesagt ist.

Max Seelemann zeigte die 22 verschiedenen Auflösungen, die aktuell unter iOS 10 auf den verschiedenen Geräten und möglich sind - Rotation, Split View und Slide Over mit eingerechnet.

(Bild: Ortwin Gentz)

Peter Steinberger, Entwickler eines PDF-Frameworks, berichtete von der Erfahrung mit UI-Tests im großen Stil. Die basieren auf dem automatisierten Bedienen von Apps durch Simulation von Touch-Ereignissen und sind eine gute Ergänzung zu Unit-Tests mit denen einzelne Methoden direkt im Code überprüft werden. In der Praxis stellten sich die große Laufzeit von über 30 Minuten bei Ausführung von hunderten von Tests sowie falsche Positive, also fälschliche Fehlschläge, als Stolpersteine heraus. Steinberger erläuterte, wie sich durch verschiedene Tricks wie das Erhöhen der Window-Layer-Geschwindigkeit Tests beschleunigen und die Zuverlässigkeit erhöhen lassen.

Dominic Opitz und Marco Köppel boten einen unterhaltsamen Einblick in das Thema maschinenbasiertes Lernen. Das ist die Basis für viele Technologien von der Bewegungserkennung mit Xbox Kinect bis zu Sprachanalyse-Systemen wie Siri, Cortana, Alexa & Co. Opitz wollte als leidenschaftlicher Skateboard-Fahrer eine App zum Zählen von Skateboard-Pushes bauen und scheiterte zunächst an der komplexen Bewegungserkennung aus den Accelerometer und Gyroskop-Sensordaten. Später kamen sie mit Machine Learning-Algorithmen in Berührung. Die lieferten durch Trainieren mit Beispieldaten eine erstaunliche Erkennungsqualität. Auf der Macoun versuchte Köppel, mit ML-Algorithmen den Kaffeeverbrauch in Korrelation zu Faktoren wie Teilnehmerzahl, Wetter und anderen Faktoren zu setzen, kam aber zu keinem brauchbaren Ergebnis. Überraschenderweise zeigte sich aber eine gute Übereinstimmung mit der Kurve des um ein Jahr verschobenen Apple-Aktienkurses. Dennoch riet er explizit davon ab, dies als Kaufsignal zu verstehen.

Dominic Opitz und Marco Köppel zeigen die Erkennung von Skateboard-Pushes in einer selbstentwickelten iOS-App mithilfe des Machine Learning Frameworks "Swift AI".

(Bild: Jérôme Lang)