Ich bin mir nicht sicher, ob es gut ist, das alle Embedded-Systeme auf gleichem oder ähnlichem OS beruhen. Das erhöht unnötig die Angriffsfläche. Und ich bin nicht sicher, ob ein generisches Betriebssystem optimal für zeitkritische Anwendungen wie die Musikerzeugung ist.
In den letzten Jahren war ich in mehreren Tonstudios, die alle mit Plug-ins und AD/DA-Wandlern arbeiten. Und sie alle haben mit Latenzen zu kämpfen, die ich in den 80/90ern nicht kannte. Live über einen MIDI-Controller einspielen war quasi unmöglich. Selbst der Gesang musste im Nachhinein zeitkorrigiert werden. Das wurde mir immer mit irgendwelchen fadenscheinigen Begründungen (Treiberprobleme usw.) schöngeredet.
Ist doch klar: Ein analoges Signal, das in digitale Pakete zerhackt werden muss, hat natürlich zuerst einmal den Zeitraum, den das Paket abdeckt, abwarten. Dann muss das Signal kodiert werden, dann muss es weitergeleitet werden, dann muss es empfangen, verifiziert und gespeichert werden. Im Anschluss muss es dann weiterverarbeitet werden, erneut in irgendwelche Puffer umgeschrieben und anschließend an den DA-Wandler gesendet werden, damit man etwas hört.
Ich halte von der Digitalisierungswelle nichts. Sie verschlingt unnötig viel Zeit mit Korrekturen statt mit kreativer Energie. Naja, das hört man ja auch im Ergebnis. Wieviele ikonische Lieder gab's bis in die 80? Und wieviele gibt es, im Vergleich dazu, jetzt?