Mitschriften von Podcasts: Warum Apple dafür fast sechs Jahre brauchte

Seit iOS 17.4 beherrscht Apples Podcasts-App das Anzeigen von Mitschriften von Audiosendungen. Das Feature wurde lange optimiert – sehr lange.

In Pocket speichern vorlesen Druckansicht
Transkript in Apple Podcasts

Transkript in Apple Podcasts.

(Bild: Apple)

Lesezeit: 2 Min.

Seit der Einführung von iOS 17.4 im März kommt Apples offizielle Podcasts-App mit einer nützlichen Funktion: Seither liefert sie automatisiert erstellte Transkripte aus, die sich sogar durchsuchen lassen. Wer eine bestimmte Stelle in einer Audiosendung sucht oder nicht die ganze Sendung durchhören möchte, profitiert davon sehr – genauso wie hörbehinderte Personen, denen sich so ohne weitere Hilfsmittel viele neue Inhalte erschließen. Das eigentlich eher simpel klingende "Podcasts Transcription"-Feature hat eine erstaunlich lange Hintergrundgeschichte. Wie die britische Zeitung Guardian am Wochenende offenlegte, arbeitet Apple bereits seit 2018 – also gut sechs Jahre – daran.

Die Transkription von Podcasts in Apples App ist derzeit in den Sprachen Englisch, Deutsch, Französisch und Spanisch verfügbar. Abzurufen sind die Verschriftlichungen laut Apple in "über 170 Ländern und Regionen". Nach und nach sollen auch Inhalte im Archiv transkribiert werden und nicht nur jeweils neue Shows. Über VTT-Dateien können Podcaster auch Sprechernamen übertragen. Während ein Podcast läuft, zeigt das Transkript die jeweilige Position im Text an, ähnlich wie man das von Amazons Whispersync kennt.

Laut Apples Podcasts-Chef Ben Cave begann der Weg zur aktuellen Funktion vor besagten sechs Jahren. Damals wollte man einen Index vorhandener Podcasts erstellen, um diese besser durchsuchbar zu machen. Allerdings war Apple dann lange nicht zufrieden genug mit der Funktion, um sie auch für Nutzer der Podcasts-App direkt zugänglich zu machen.

Man habe hohe Standards bei der Genauigkeit. Erst Fortschritte in anderen Bereichen der Barrierefreiheit hätten das automatische Transkribieren dann möglich gemacht. "In diesem Fall haben wir das Beste von dem genommen, was wir vom Lesen in Apple Books und von Texten in Apple Music gelernt haben", so Caves Kollegin Sarah Herrlinger gegenüber dem Guardian, die den Bereich Podcasts Policy leitet. Apple-Podcast-Transkripte übernehmen demnach nun die zeitsynchrone Wort-für-Wort-Hervorhebung aus der Liedtextfunktion von Apple Music und nutzen die Schriftarten und kontrastreiche Farbschemata aus Apple Books.

Apple setzt die Funktion zudem für möglichst alle Podcasts um. "Es wäre nicht angemessen, die Anzahl der Sendungen, die die Funktion erhalten, willkürlich zu begrenzen", so Podcasts-Boss Cave. Apple denke, dass dies schon aufgrund der Barrierefreiheit notwendig sei. "Verschriftlichungen sollten für alles verfügbar sein, mit dem [die Nutzer] interagieren wollen."

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (heise Preisvergleich) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(bsc)