Audeering-Chefin zum AI Act: "Wir brauchen Vertrauen statt Überregulierung"

Audeering analysiert stimmliche Merkmale, um Rückschlüsse auf Emotionen und sogar psychische Zustände zu ziehen. Den AI Act hält das Unternehmen für zu streng.

vorlesen Druckansicht 9 Kommentare lesen
Mikrofon auf Stimmwellen

(Bild: Baivector/Shutterstock.con)

Lesezeit: 5 Min.

Künstliche Intelligenz dringt zunehmend in sensible Lebensbereiche ein – auch in die menschliche Stimme. Das bayerische Unternehmen Audeering analysiert stimmliche Merkmale, um Rückschlüsse auf Emotionen, Stress, psychische und sogar körperliche Zustände zu ziehen.

Das Unternehmen stellt seine Open-Source-Modelle für Sprach- und Emotionsanalysen auch auf Hugging Face zur Verfügung. Das Thema Stimmerkennung ist vielversprechend, weil sich aus der menschlichen Stimme zahlreiche, teils sensible, Informationen ableiten lassen. Zugleich ist es aber auch sehr riskant, weil Modelle und Daten zweckentfremdet werden könnten – etwa zur heimlichen Bewertung von Personen, zur Überwachung im Arbeitsumfeld und ähnlichen Themen. Wie sich Datenschutz, Ethik und Innovation miteinander vereinbaren lassen, darüber haben wir mit Prof. Dagmar Schuller von Audeering gesprochen.

Dagmar Schuller ist Mitgründerin und Geschäftsführerin von Audeering.

(Bild: Katja Hentschel)

Audeering ist vielen bekannt, weil Sie schon früh auf KI-gestützte Stimmanalyse gesetzt haben. Was ist heute neu, woran arbeiten Sie aktuell?

Wir beschäftigen uns weiterhin stark mit Stimmbiomarkern – also der Analyse von biologischen und psychologischen Merkmalen in der Stimme. Durch die neue EU-KI-Verordnung ist das Thema Regulierung für uns besonders relevant geworden. Wir sehen hier große Herausforderungen für kleine und mittelständische Unternehmen: Der Rechtsrahmen ist sehr komplex und eher auf große Player ausgelegt.

Muss man befürchten, dass der AI Act kleinere KI-Unternehmen wie Ihres ausbremst?

Er macht es zumindest schwerer. Große Konzerne haben Compliance-Abteilungen, eigene Juristen und Lobbyarbeit in Brüssel. Wir hätten uns sektorale Ansätze statt einer starren horizontalen Regulierung gewünscht, die alle Unternehmen unabhängig von ihrer Größe und Reichweite gleichbehandelt.

Sehen Sie eine Mitschuld der Branche? Manche KI-Firmen haben mit Intransparenz oder problematischer Datennutzung Vertrauen verspielt.

Es gibt schwarze Schafe – und deren Verhalten fällt dann auf alle anderen zurück. Deshalb setzen wir konsequent auf Transparenz und ethische Leitlinien. Entscheidend ist, dass am Ende immer der Mensch die Verantwortung trägt, nicht das System.

Ihre Technologie ist spannend, aber auch heikel. Sie können mit Stimmanalysen Rückschlüsse auf Stress, Emotionen oder Krankheitsanzeichen ziehen. Wie stellen Sie sicher, dass solche sensiblen Erkenntnisse nicht zweckentfremdet werden – etwa in der Mitarbeiterüberwachung?

Ein zentraler Punkt ist, dass wir keine Rohdaten speichern. Unsere Systeme arbeiten in Echtzeit und verwenden beispielsweise im Call-Center-Bereich ausschließlich anonymisierte Metadaten. Zudem empfehlen wir den Nutzenden klare Kennzeichnungspflichten, also eine transparente Information über den Einsatz der Technologie. Das ist eine Frage der Verantwortung unserer Kunden.

Videos by heise

Dennoch könnte Ihre Technik doch theoretisch auch im Callcenter oder in HR-Analysen genutzt werden, um Mitarbeiter zu bewerten. Können Sie das ausschließen?

Ausschließen kann man Missbrauch nie, aber man kann ihn erschweren. Wir lehnen explizit Anwendungen ab, die zur Überwachung oder Diskriminierung dienen. In Projekten etwa mit NGOs oder im Callcenter-Bereich, nutzen wir die Technologie, um Stress zu reduzieren – nicht, um Leistung zu kontrollieren.

Wie sieht das konkret aus? Wird da in Echtzeit ausgewertet, wie gestresst jemand klingt?

Es wird beispielsweise die Möglichkeit angeboten, ein Audio-Tagebuch zu führen. Das System kann dann eine Pause vorschlagen, wenn es merkt: Die Stimme zeigt Zeichen von Überlastung. Ziel ist immer, Wohlbefinden zu fördern, nicht Kontrolle.

Ein kritischer Punkt ist auch die Datensicherheit. Selbst anonymisierte Audioinformationen lassen sich oft rekonstruieren oder mit anderen Quellen verknüpfen. Wie gehen Sie mit diesem Risiko um?

Es gibt technische Verfahren, die eine Anonymisierung der Stimme ermöglichen. Außerdem prüfen wir fortlaufend, ob unsere eingesetzten Verfahren den sicherheits- und datenschutzrechtlichen Standards der Zeit genügen. Eine absolute Sicherheit gibt es nicht – aber minimierte Risiken durch konsequente technische und organisatorische Maßnahmen.

Sie haben während der Coronakrise an der Erkennung von COVID-19 über Stimme gearbeitet. Wie zuverlässig war das – und was ist daraus geworden?

Unser System konnte bestimmte Atem- und Stimmmuster sehr gut unterscheiden. Die Erkennungsleistung entsprach ungefähr der des Antigen-Tests. Geplant war, die Analyse in die Corona-Warn-App zu integrieren – als niedrigschwellige Selbstprüfung. Schlussendlich hat man sich seitens der Regierung aber dazu entschlossen, die Corona-Warn-App nicht mit zusätzlichen Funktionen auszustatten.

Wenn man so viel über Menschen erfahren kann – Emotionen, Stress, Krankheiten – stellt sich die Frage: Wo ziehen Sie persönlich die ethische Grenze?

Für uns ist klar: kein militärischer Kontext, keine Manipulation, keine Diskriminierung. Der Nutzen muss beim Anwender liegen – zum Beispiel beim Stressabbau oder der Gesundheitsunterstützung. Und immer gilt: Menschliche Entscheidungshoheit bleibt oberstes Prinzip.

Das Vertrauen der Öffentlichkeit in KI ist aber angeschlagen. Was müsste sich ändern?

Wir brauchen mehr Bildung und Transparenz. Die Menschen sollten verstehen, wie solche Systeme funktionieren – auf welcher Datenbasis und mit welchen Algorithmen sie arbeiten und wie verlässlich ihre Ergebnisse sind. Nur dann kann man sie verantwortungsvoll nutzen.

Haben Sie Vertrauen, dass die Politik das schafft?

Ich sehe Fortschritte – mehr Praktiker in den Beratungsgremien helfen. Aber Regulierung darf Innovation nicht behindern. Wir brauchen einen chancenorientierten Zugang, nicht nur Angstmanagement. Vertrauen statt Verbote.

Also ein Kulturwandel im Umgang mit KI?

Wir müssen verstehen, dass KI und Software nie perfekt sind – und dass das in Ordnung ist. Europa ist stark in der Forschung, leider schwach in der Marktübersetzung. Wenn wir unseren Perfektionismus und unsere übermäßige Vorsicht etwas loslassen, können wir viel gewinnen – und vielleicht wieder echte Tech-Innovationen in Europa schaffen.

(mack)