Interview: Aleph Alpha fordert vertrauenswürdige KI mit europäischen Werten

Hans-Jörg Schäuble, Vizepräsident von Aleph Alpha, plädiert im Interview für vertrauenswürdige KI, eine eigenständige Rolle der EU und einen baldigen AI Act.

In Pocket speichern vorlesen Druckansicht 22 Kommentare lesen

Hans-Jörg Schäuble, VP Aleph Alpha, bei einem Gespräch zum EU AI Act in Berlin

(Bild: Silke Hahn)

Lesezeit: 9 Min.
Von
  • Ulrich Hottelet
Inhaltsverzeichnis

Die Diskussionen um Chancen und Risiken der KI sind momentan allgegenwärtig. Hans-Jörg Schäuble, Vice President Customer des Heidelberger KI-Start-ups Aleph Alpha, eines Konkurrenten von OpenAI, nimmt im Interview Stellung zum Wettbewerb mit den amerikanischen KI-Anbietern, den unterschiedlichen ethischen Maßstäben und dem Ringen um den AI Act der EU.

Interviewgast Hans-Jörg Schäuble

Als Vice President Customer des Heidelberger KI-Startups Aleph Alpha verantwortet Hans-Jörg Schäuble die Umsetzung von Projekten mit generalisierenden KI-Lösungen, basierend auf den Aleph-Alpha-eigenen Forschungen und Entwicklungen. Der Schwerpunkt liegt auf der Lösung von "Echtweltproblemen" und dem Umsetzen innovativer Business-Value-Projekte. Vor seiner Zeit bei Aleph Alpha arbeitete Schäuble bei Deloitte, Deloitte Consulting, der Schmittgall-Gruppe und IBM Deutschland.

heise online: Wie wird die Künstliche Intelligenz die Wertschöpfung der Zukunft transformieren?

Hans-Jörg Schäuble: Die Transformation wird auf viele unterschiedliche Arten passieren. Generalisierende KI ist nicht zweckgebunden und kann daher viele Aufgaben erfüllen. Auf der Basis von Maschinendaten Erwartungszyklen zu verbessern, ist einer der Use Cases. Und wir optimieren die Verwaltungsarbeit, zum Beispiel das Schreiben von Rechnungen. Jeden Umgang mit Informationen kann diese KI optimieren, beschleunigen und damit revolutionieren. Bei großen Fertigungsanlagen zählt jede Minute der Produktionsunterbrechung. Wenn wir mit Maschinendaten die Fehlermeldungen mit Wissensdatenbanken der Maschinenhersteller abgleichen können und die Unterbrechung so verkürzen können, dann ist das eine Riesenwertschöpfung.

Welche Rolle spielen deutsche Player bei der KI-Revolution? Und wie groß ist die Gefahr, dass wir von den USA und China abgehängt werden?

Die Gefahr der Abhängigkeit ist natürlich gegeben und kann unangenehme Konsequenzen für uns bedeuten, nämlich dass Wertschöpfung abfließt und wir sie einkaufen müssen. Die Chance ist aber, dass wir in Deutschland und Europa eine hervorragende Grundlagenforschung haben. In Europa haben wir aber nur vereinzelt Unternehmen, die nahe an der Forschung sind. In der generativen KI bietet einzig Aleph Alpha ein kommerzielles Angebot. Da haben wir in Europa Nachholbedarf.

Die KI-Modelle bringen ein Weltverständnis: Wie schaue ich auf die Welt? Wie bewerte ich alles, was ich sehe? Die Modelle erlernen das im Training und da ist es sehr davon abhängig, mit welchen Daten sie trainiert werden. Deswegen ist es wichtig, dass wir in Europa unser Bild auf die Welt erhalten und abbilden.

Was sind die wichtigsten Unterschiede zwischen Ihrer Software Luminous und dem Marktführer ChatGPT?

Die Grundlage, Modelle, Algorithmik und Methode sind gleich. Es sind beides Transformer-basierte Modelle, das heißt, sie haben die gleiche Architektur. ChatGPT ist sehr darauf ausgerichtet, dass es von jedem nutzbar ist. Es ist ein B2C-Use Case. Wir unterscheiden uns darin, dass ChatGPT das Wissen in sein Modell hineintrainiert hat mit dem Ziel, es so einfach wie möglich für alle Nutzer zu machen. Damit geht einher, dass man kein Unternehmenswissen anbinden kann. Wir gehen einen anderen Weg. Das Wissen soll in den angeschlossenen Wissensdatenbanken bleiben und nur vom Modell zur Aufgabenerfüllung genutzt werden.

Was sind die Anwendungsgebiete von Luminous?

Sie sind sehr vielfältig. Im Prinzip jede Aufgabe, die man sprachlich ausdrücken kann. Es kann ein Gedicht sein, eine Textzusammenfassung oder das Finden eines Fehlercodes in Maschinendaten. Für die Technologie ist die Branche unerheblich, weil die Verfahren die gleichen sind. Dadurch, dass wir in Europa sind und andere Anforderungen an den Datenschutz erfüllen können, sind wir für Branchen besonders attraktiv, die mit sensiblen Anwendungsfällen zu tun haben. Das sind Medizin, Verwaltung, Versicherungen und Banken, aber auch die Industrie, zum Beispiel wegen ihrer Forschungsdaten.

Welche ethischen Maßstäbe müssen wir anlegen, um einerseits Innovationen zu entfachen und andererseits verantwortliches Handeln zu sichern?

Die Diskussion ist vielschichtig. Wir müssen einerseits unsere europäischen Werte auf die Technologie übertragen können und andererseits sicherstellen, dass die Nutzung der Technologie nicht unkontrollierbar wird, dass wir nachvollziehen können, wie kam die KI zur Entscheidungsfindung. Wir umschreiben das mit dem Begriff Trust, Vertrauenswürdigkeit. Die kulturelle Sicht der Europäer zum Beispiel bei Bildern und der künstlerischen Darstellung von nackten Menschen ist anders als die der Amerikaner, die das Hochladen solcher Bilder auf Social Media verhindern.

Diese kulturellen Unterschiede müssen wir reflektieren und unsere europäische Kultur bewahren. Wir konzentrieren uns bei Aleph Alpha stark auf die Erforschung und Entwicklung im Bereich der erklärbaren KI, um KI-generierte Inhalte für den Menschen nachvollziehbar zu machen. Dies schafft zum einen die nötige Grundlage für den Einsatz von generativer KI für sicherheitskritische Anwendungen und zum anderen wird so Vertrauen beim Benutzer geschaffen.

Welche regulatorischen Maßstäbe sollten wir anlegen?

Regeln sollten nicht nur beengend sein, sondern auch Möglichkeiten eröffnen. Wir brauchen einen gesellschaftlichen Konsens. Aktuell diskutieren wir sehr über technische Details in der Regulatorik, die auch vom kommenden EU AI Act aufgegriffen werden, zum Beispiel die Trainingsdaten. Wichtiger wäre aber, zunächst einen gesellschaftlichen Konsens über die Notwendigkeit dieser Technologie zu finden, auf welchem dann eine entsprechende Regulierung aufsetzen kann.

Auf einem KI-Panel beim Tag der Industrie des BDI sagten Sie, Sie freuten sich auf Leitplanken, Regeln dürften aber nicht nur einschränken, sondern auch gestalten. Wie soll KI regulatorisch gestaltet werden?

Man sollte das nicht nur auf die KI beziehen. Sie ist bereits ein elementarer Bestandteil unseres Lebens. Wir als Gesellschaft müssen grundsätzlich diskutieren und uns einigen, wohin wir langfristig wollen. Wir als technische Spezialisten müssen das dann umsetzen. Die Technologie muss aber so gebaut werden, dass sie den Regeln entsprechen kann, nach denen die Gesellschaft leben will.