Apple will in iOS mehr Barrierefreiheit schaffen

Zum Welttag der Barrierefreiheit kündigt Apple mehrere neue Bedienungshilfen an. Die neuen Funktionen nutzen Machine Learning und sollen dieses Jahr erscheinen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Bedienungshilfen auf Apple-Geräten

Ein Beispiel für die neuen Bedienungshilfen, die Apple für dieses Jahr angekündigt hat.

(Bild: Apple)

Lesezeit: 3 Min.
Inhaltsverzeichnis

Apple hat für dieses Jahr neue Bedienungshilfen für Menschen mit kognitiven, visuellen, auditiven oder motorischen Einschränkungen angekündigt. Die neuen Funktionen, die voraussichtlich erst in iOS 17 eingeführt werden, enthalten auch Werkzeuge für Menschen, die nicht sprechen können oder bei denen die Gefahr besteht, dass sie ihre Sprachfähigkeit verlieren. Laut Apple nutzen die neuen Funktionen maschinelles Lernen. Durch die Verarbeitung auf dem Gerät soll die Privatsphäre gewährleistet sein.

Die neue Funktion Assistive Access reduziert Apps und Funktionen aufs Wesentliche und soll so die kognitive Belastung verringern. So werden Anrufe und FaceTime-Calls in einer einzigen Telefon-App zusammengefasst. Ähnliches gilt für Nachrichten, Kamera, Fotos und Musik. Assistive Access hat dabei eine eigene Benutzeroberfläche mit kontrastreichen Schaltflächen und großen Beschriftungen. Unterstützer der Personen mit Einschränkungen können diesen bei der Einrichtung helfen.

Für Nutzer, die es vorziehen, visuell zu kommunizieren, bietet die Nachrichten-App zum Beispiel eine reine Emoji-Tastatur und die Möglichkeit, eine Videonachricht aufzunehmen. Es kann außerdem zwischen einem eher visuellen, rasterbasierten Layout für Startbildschirm und Apps oder einem zeilenbasierten Layout ausgewählt werden.

Mit Live Speech für iPhone, iPad und Mac können Anwender das, was sie sagen möchten, eintippen, damit es bei Telefonaten und FaceTime-Anrufen sowie bei Gesprächen laut vorgelesen wird. Es können auch häufig verwendete Phrasen gespeichert werden, um diese schnell vortragen zu können. Die Funktion richtet sich an Menschen, die nicht sprechen können oder ihre Sprachfähigkeit im Laufe der Zeit verloren haben.

Für Nutzer, bei denen die Gefahr besteht, dass sie ihre Sprachfähigkeit verlieren — wie beispielsweise Menschen, bei denen kürzlich ALS (Amyotrophe Lateralsklerose) diagnostiziert worden ist oder die an anderen Krankheiten leiden, die die Sprachfähigkeit nach und nach beeinträchtigen können — bietet Personal Voice eine Möglichkeit, eine Stimme zu erzeugen, die wie die eigene klingt. Dazu muss einmal auf iPhone oder iPad eine zufällige Reihe von Textaufforderungen vorgelesen werden. Per Machine Learning wird mit den 15 Minuten Audiomaterial die Stimme erzeugt. Personal Voice kann mit iPhone, iPad und Mac mit Apple Chips erstellt werden und wird zunächst nur auf Englisch verfügbar sein.

"Point and Speak" in der Lupe erleichtert Nutzern mit eingeschränktem Sehvermögen die Interaktion mit physischen Objekten, die mehrere Beschriftungen haben. Bei der Verwendung eines Haushaltsgeräts kombiniert Point and Speak die Eingaben der Kamera-App, des LiDAR-Scanners und maschinelles Lernen, um den Text auf jeder Taste anzusagen, wenn man den Finger über die Tastatur bewegt. Die Funktion steht auf iPhones und iPads mit LiDAR-Scanner bereit und unterstützt Deutsch, Englisch und viele weitere Sprachen. "Point and Speak" ergänzt vorhandene Bedienungshilfen wie Personenerkennung, Türerkennung und Bildbeschreibungen.

Neben diesen werden noch weitere Verbesserungen eingeführt. Apple begleitet den Welttag der Barrierefreiheit am 18. Mai außerdem mit verschiedenen Aktionen in seinen Geschäften und Diensten. Bereits in der Vergangenheit hat Apple solche Ausblicke auf neue Bedienungshilfen gegeben. Das Unternehmen arbeitet nach eigenen Angaben mit Community-Gruppen zusammen, die Nutzer mit Einschränkungen vertreten.

(mki)