Google I/O: Weniger Hör- und Sehbarrieren bei Android

Für Sprachausgabe, Hörgeräte und Braillereader präsentiert Google Neuerungen bei Android. Dazu kommt Hilfe für Programmierer.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Android im Nadelstreifanzug

(Bild: Daniel AJ Sokolov)

Lesezeit: 6 Min.
Inhaltsverzeichnis

Barrierefreiheit steht bei Android traditionell hoch im Kurs. Dieses Jahr konzentriert sich Android-Betreiber Google vor allem auf Verbesserungen für Blinde, Gehörlose sowie Hör- und Sehschwache. Außerdem präsentiert das Unternehmen auf seiner Entwicklerkonferenz Google I/O neue Hilfestellungen für App-Entwickler in Sachen Barrierefreiheit.

Der Android Screenreader Talkback ist zu Version 13.1 gereift. Es unterstützt jetzt das neue HID-Protokoll (human interface device) über USB sowie Braille-Tabellen in 38 Sprachen. Weitere Sprachen sind in Arbeit. Neu sind sogenannte Actions, beispielsweise das Ausschneiden, Kopieren oder Einfügen von Text in editierbaren Feldern, oder das Archivieren oder Löschen von E-Mails in Gmail. Eine Action bei der Rechtschreibprüfung in den Reading Controls von Talkback erlaubt beispielsweise das Springen zum nächsten oder vorherigen womöglich falsch geschriebenen Wort.

Talkback gibt Hinweise, wenn Actions verfügbar sind. Aktiviert werden sie durch eine Wischgeste nach rechts mit drei Fingern; ein Ein-Finger-Wisch nach unten fördert die Liste der verfügbaren Actions zutage, von denen dann eine mit einem Doppelklopfer ausgewählt werden kann. Geklopft wird auch bei der Texteingabevariante split-tap typing: Der Anwender wählt mit einem Finger den ersten Buchstaben auf der Bildschirmtastatur aus und bestätigt diese Auswahl mit einem Klopfer mit einem anderen Finger, irgendwo auf dem Touchscreen. Dann fährt er, ohne den ersten Finger zu heben, zum zweiten Buchstaben, klopft wieder mit dem anderen, Finger, und so fort.

Einen kurzen Ausblick gewährte Google auf Talkback 14. Diese Version wird NLS eReader von Humanware unterstützen; außerdem kennt sie neue Braille-Befehle für das Bewegen des Cursors sowie das Ausschneiden, Kopieren und Einfügen von Text mit der Bildschirmtastatur. Details dazu gibt es noch keine.

Für Sehschwache und Dyslexiker hat Google im Dezember eine gebührenfreie App namens Reading Mode herausgebracht. Sie passt die Bildschirmdarstellung von Dokumente, Webseiten und E-Mails an und kann Texte per Sprachausgabe vorlesen. Dabei wird der gerade ausgegebene Text markiert. Die Sprachausgabe kann an persönliche Vorlieben angepasst werden. Die App eignet sich natürlich auch gut für andere User, beispielsweise wenn jemand sich beim Geschirrwaschen einen Text vorlesen lassen möchte.

Mit der nächsten Android-Version 14 wird die Schriftvergrößerung umgestellt: Sie ist nicht länger linear. Das bedeutet, dass Schrift, die sowieso schon groß ist, weniger stark vergrößert wird als kleinere Schrift. Für App-Betreiber bedeutet dies, dass sie ihre User Interfaces mit maximaler Schriftgröße testen müssen, um sicherzustellen, dass kein Text verborgen oder abgeschnitten ist.

Im Akustik-Bereich verspricht Google mit Android 14 intuitivere Zusammenarbeit Androids mit Hörgeräten. Neben leichterem Bluetooth-Pairing kommt eine genauere Auswahl, was der Nutzer an sein(e) Hörgerät(e) gestreamt haben möchte. Die Einstellung wird getrennt für Anrufe, Benachrichtigungen und Medieninhalte möglich sein – eine deutliche Verbesserung für Benutzer von Hörgeräten. Außerdem werden Benachrichtigungen nicht nur durch Klingeln und Vibrieren, sondern auch durch Kamerablitz oder aufleuchtende Bildschirme auf sich aufmerksam machen können. Auch davon kann jedermann profitieren, beispielsweise in lauten Umgebungen oder solche, wo man andere möglichst wenig stören möchte.

In solchen Situationen kann auch Live Caption Wunder wirken: Es erkennt nicht nur Sprache in Telefonaten, Podcasts oder Videos und verwandelt sie offline in Text, Live Caption kann auch umgekehrt eingegebenen Text in einem Telefonat als für das Gegenüber hörbare Sprache ausgeben. Das hilft nicht nur Gehörlosen oder Menschen mit Stimmbandentzündung, sondern jedermann in lauten oder besonders leisen Umgebungen, in denen man nicht unangenehm auffallen möchte, etwa in einer Bibliothek oder auf einem Friedhof. Live Caption ist bereits in einigen Android-Handys verfügbar, darunter alle Google Pixel-Handys ab Pixel 5. Vage hat Google auf der I/O Neuerungen für Live Caption im laufenden Jahr vorangekündigt.

Für Programmierer bringt Android 14 eine Reihe neuer API. Auf seiner Entwicklerkonferenz hat Google einige API für Barrierefreiheit hervorgehoben. Das Attribut accessibilityDataSensitive schränkt den Zugriff auf Informationen ein, es sei denn, eine Accessibility-Anwendung möchte darauf zugreifen. Der Play Store stellt sicher, dass Apps sich nicht fälschlich als Accessibility-Anwendung angeben, um sensible Daten auslesen zu können. Speziell sicherheitsrelevante Anwendungen wie Bank-Apps werden davon profitieren.

setRequestInitialAccessibilityFocus ist ein Attribut, das der Accessibility-Anwendung zeigt, auf welches Element es den Fokus beim Aufruf automatisch legen soll. Grundsätzlich rät das Android-Accessibility-Team davon ab, diese Funktion zu nutzen, weil sie Inkonsistenzen zwischen Apps heraufbeschwört. In Ausnahmefällen könne dieses Attribut jedoch hilfreich sein.

Mit setMinDurationBetweenContentChangesMillis sagt ein Element der TalkBack-App (ab Version 14), wie häufig Talkback etwas ausgeben soll, während es auf dieses Element fokussiert. Als Beispiel diente in der Präsentation eine Stoppuhr, die Sekunden hochzählt. Soll wirklich jede einzelne Sekunde angesagt werden? Oder reicht es vielleicht alle zehn Sekunden?

Das Android Accessibility Test Framework ist eine Sammlung technischer Barrierefreiheitsprüfungen; sie ersetzen zwar keine Tests mit echten Usern, können bestimmte Fehler aber schon im Vorhinein abfangen und Lösungsvorschläge unterbreiten. Das funktioniert fortan auch für User-Interfaces, die mit Compose erstellt werden.

Mit Compose 1.4 hält außerdem ein neuer Algorithmus für die Bestimmung der Fokus-Reihenfolge Einzug. Jetzt ist nicht mehr die Baumstruktur der Anzeige entscheidend, sondern die Größe und Position von Bedienelementen. Das ist speziell bei einer Leiste am Bildschirmrand, wie sie beim neuen Pixel Fold Einzug hält, vorteilhaft. Weitere API für die Fokus-Reihenfolge sind in Arbeit.

Zusätzlich möchte Google die Programmierung barrierefreier Apps durch weitere Materialien unterstützen. Auf Interface-Besonderheiten bei WearOS geht dieses Dokument ein, während es auf Github neue Code-Samples für barrierefreies Programmieren mit Compose gibt. Google lädt App-Entwickler ein, Rückmeldungen zum Thema Barrierefreiheit zu geben.

(ds)