OCR an Bord: Wie man mit Apples Texterkennung arbeitet
Apples Texterkennung funktioniert gut – und kann sogar mehrseitige Dokumente übertragen. Wir zeigen, wie Entwickler sie nutzen.
- Christian Kirsch
Seit macOS 12 respektive iOS 13 erkennen native Programme wie Apples Fotos und Vorschau Texte in Bildern und PDFs automatisch. Mit Copy und Paste kann man diese Texte extrahieren und in anderen Programmen weiterverwenden. Will man allerdings viele Bilder oder PDFs verarbeiten und die Texte in anderen Dateien verwenden, ist dieses manuelle Vorgehen mühsam, zeitaufwendig und fehlerträchtig. Unter Zuhilfenahme des für die Texterkennung zuständigen Vision-Frameworks ließe sich der Vorgang mit einer Swift- oder Objective-C-Anwendung automatisieren.
Dasselbe können auch Skripte erreichen. Sie haben den Vorteil, dass man sie mit vielen unterschiedlichen Apps verbinden kann, die keine direkte Schnittstelle für klassische Programmiersprachen bieten. Erstellen können Sie Skripte unter anderem mit JavaScript. Es stellt wie das ältere AppleScript eine Brücke zu den Objective-C-Schnittstellen vieler Frameworks bereit.
Mit OS X 10.10 (Yosemite) präsentierte Apple 2014 die Anbindung von JavaScript an seine Automatisierungstechnik unter dem Namen "JavaScript for Automation" (JXA, siehe auch Mac & i Heft 3/2016, S. 144) und verbesserte sie ein Jahr später in El Capitan. Seitdem tat sich jedoch nichts mehr. Die offizielle JXA-Dokumentation fällt spärlich aus und auch im Netz findet sich wenig zum Thema. Daher sind manchmal ein wenig Forschergeist und Experimentierfreude gefragt, um damit zum Ziel zu gelangen.
Das war die Leseprobe unseres heise-Plus-Artikels "OCR an Bord: Wie man mit Apples Texterkennung arbeitet". Mit einem heise-Plus-Abo können sie den ganzen Artikel lesen und anhören.