Google I/O: Barrierefreie Apps zahlen sich aus

Seite 2: Neue Unterstützung für Entwickler

Inhaltsverzeichnis

Um Programmierern barrierefreie Gestaltung ihrer Apps zu erleichtern, geht Google daran, das Accessibility Test Framework for Android (ATF) in Android Studio zu integrieren. Bisher gibt es ein kostenlos ATF Scanner Toll im Play Store, sowie Integration in die Testsuiten Espresso und Robolectric. Nun hat ATF auch in die Canary Builds des Android Studio Einzug gehalten und soll "bald" in der stabilen Version ankommen.

Dort weist ATF auf mögliche Probleme hin, unterbreitet Lösungsvorschläge und stellt auch einen Link zur einschlägigen Dokumentation bereit. "Das ist kein Ersatz für manuelle Tests", warnte allerdings Googler Shailen Tuli. "Automatisierte Überprüfungen haben ihre Grenzen. Zum Beispiel können sie sehen, ob es ein Label gibt, aber nicht, ob das Label Sinn hat."

Parallel setzt Google auf maschinelles Lernen: Anfang des Jahres hat es der Sprachsteuerung Voice Access ein Bilderkennungssystem namens IconNet hinzugefügt. Es versucht, auf dem Bildschirm angezeigte Icons zu erkennen und Sprachbefehlen zugänglich zu machen – das geschieht komplett lokal auf dem Handy. IconNet verrät Google also nichts über den Bildschirminhalt.

Die Animation verdeutlich die Arbeitsweise der Icon-Erkennungs-KI IconNet

(Bild: Google)

Hat die Bilderkennung anfangs gut 30 Icons erkannt, sind es neuerdings mehr als 70. Das hat zwei Vorteile: Einerseits bekommen diesen Icons auch dann ein Label, wenn der Entwickler darauf verzichtet oder es vergessen hat. Und zweitens werden die Bezeichnungen für Sprachbefehle vereinheitlicht. Von Entwicklern bereits vergebene Label funktionieren weiterhin, auch wenn sie anders heißen.

Fortschritte meldet Google bei der App Lookout, die für Blinde und Sehschwache konzipiert ist. Lookout nutzt die Smartphone-Kamera und künstliche Intelligenz (KI), um Objekte in der Umgebung sowie Strichcodes zu erkennen. Das Unternehmen hat die Algorithmen durch Adversarial Attacks gehärtet und aktiv nach unfairen Voreingenommenheiten (unfair bias) gesucht.

Mehr Infos

Lesen Sie bei heise Developer:
Stolpersteine bei mobilen Anwendungen überwinden

Außerdem wurden Ergebnisse aus Nutzertests eingearbeitet: Je nach dem, was ein Algorithmus erkennen soll, ist unterschiedliches Feintuning angezeigt. Die KI zur Erkennung von Dollarnoten muss möglichst exakt arbeiten und soll, wenn sie sich nicht sicher ist, lieber gar nichts ausgeben. Andernfalls könnte ein Blinder dazu verleitet werden, statt einem Dollar hundert Dollar zu reichen.

Die KI zur Erkennung von Möbeln hingegen soll Objekte auch dann einordnen, wenn sie sich nicht ganz sicher ist. Ob es sich um einen Ohrensessel oder ein Sofa handelt, ist zweitrangig. Wichtig ist für blinde Benutzer, dass ein großes Hindernis im Raum steht, und dass es sich wahrscheinlich um ein Wohnzimmer, jedenfalls nicht um ein Badezimmer handelt. Ebenfalls für Blinde interessant: Googles Braille Keyboard unterstützt nun auch Arabisch und Spanisch.

Zur freien Verfügung (Lizenz Apache 2.0) gestellt hat Google im April sein Project Shuwa (japanisch für Gebärdensprache). Dabei handelt es sich um ein Framework zur automatischen Erkennung von Gebärden samt Gesichtsausdrücken und Körperbewegungen in kurzen Videos. Das soll eines Tages ein Baustein für automatische Übersetzung von Gebärdensprache werden.

Trainiert ist Project Shuwa bisher auf die Gebärdensprachen Japans und Hongkongs. Wer möchte, kann sich mit Project Shuwa nun an eine der über 150 weiteren Gebärdensprachen wagen.

(ds)