Bundestagskommission: "Vertrauenswürdige KI made in Germany" und eine "KI-Dividende für Beschäftigte"

Effektivitätsgewinne, die mit Künstlicher Intelligenz erzielt werden, sollen etwa in kürzere Arbeitszeiten umgemünzt werden. Forscher fordern zudem Transparenz.

In Pocket speichern vorlesen Druckansicht 88 Kommentare lesen
Bundestagskommission: "Vertrauenswürdige KI made in Germany" und eine "KI-Dividende für Beschäftigte"

(Bild: sdecoret / shutterstock.com)

Lesezeit: 6 Min.
Inhaltsverzeichnis

In der Strategie der Bundesregierung für Künstliche Intelligenz (KI) und vergleichbaren hiesigen Papieren hat Lothar Schröder, Mitglied des Bundesvorstands der Dienstleistungsgewerkschaft verdi, eine Leerstelle ausgemacht. "Es fehlt eine gesellschaftliche Vision, was wir mit KI wollen", konstatierte er am Montag bei einer öffentlichen Sitzung der einschlägigen Enquete-Kommission des Bundestags.

"Wir sollten rote Linien formulieren", versuchte Schröder selbst den Hohlraum zu füllen. Autonome Waffensysteme etwas schrammten an die gesellschaftliche Toleranzgrenze heran. Dies gelte auch für automatisierte Überwachungssysteme etwa für Mitarbeiter. "Es muss eine Stelle geben, die verantwortlich ist", betonte der Gewerkschaftler. Dies dürfe nicht die Software, sondern habe "immer ein Mensch" zu sein.

"Wir müssen über Folgeabschätzung und Rechenschaftspflichten reden", führte Schröder aus. Es gebe eine Produkthaftung für Elektrizität, sodass es auch für KI zumindest teilweise eine geben sollte. Nötig seien ferner "Gefährdungsbeurteilungen" für Künstliche Intelligenz. Dies sei nicht so einfach, da man bei einem lernenden System "vorher nicht sagen kann, was hinten rauskommen soll". Dies mache es Betriebsräten schwer, die ihnen eröffneten Mitbestimmungsrechte bei der Einführung einschlägiger Technik zur Kontrolle von Mitarbeitern auszuüben.

Seine Vision fürs Jahr 2030 konnte der stellvertretende Aufsichtsratsvorsitzende der Deutschen Telekom zwar angesichts enger Zeitvorgaben nicht mehr präsentieren. Laut seiner schriftlichen Stellungnahme schwebt ihm aber vor, dass bis dahin vertrauenswürdige KI made in Germany "ein Markenzeichen dafür geworden" sei, "wie man umsichtig mit Systemen der Künstlichen Intelligenz umgeht". Weltweit gälten dann "deutsche Ethikprinzipien und Normen als beispielsgebend" und würden etwa mit Verantwortungsbewusstsein und Gemeinwohlverpflichtung verknüpft.

Trotz der in seinem Vortrag ausgemachten "Ambivalenz" der Technik überwiegen in Schröders Ausblick positive Szenarien. Verkehrsstaus und überfüllte öffentliche Busse und Bahnen seien dank intelligenter Steuerung seltener geworden. "Multiübersetzersysteme sind ins Telefonnetz integriert und haben den weltweiten Nachrichtenaustausch erleichtert. Kontrolle mit "Social Scoring" und "rücksichtsloser Datenhandel" gälten nicht mehr als akzeptabel.

Die Arbeitswelt wird laut dem Mitglied der Kommission ebenfalls schöner dank "KI-Dividende". Diese sorge dafür, dass "neben dem Urlaub ein Großteil der tarifgebundenen Beschäftigten mehrere freie Tage im Jahr hat". Es sei in gut zehn Jahren politisch hierzulande weitgehend unumstritten, "dass Effektivitätsgewinne, die mit KI erzielt werden, zugunsten einer Verkürzung der Arbeitszeit und einem Gewinn an Möglichkeiten zur unmittelbaren zwischenmenschlichen Kommunikation genutzt werden".

Parallel werden die Systeme sozialer Sicherheit Schröder zufolge ausgebaut, da eine "Wertschöpfungsabgabe" Firmen dazu zwinge, Teile der KI-bedingten Rationalisierungseffekte etwa in Sozialversicherungen zu transferieren. Ganz neu ist die Forderung nicht, bislang war sie aber unter dem Aufhänger Automatisierungsdividende bekannt. Prinzipiell geht es auch dabei darum, den durch die Digitalisierung entstehenden Produktivitätszuwachs umzuverteilen.

Der Gewerkschaftler wünscht sich zudem ein "KI-Gesetz", damit einschlägige Systeme sich nicht durch ihre Fähigkeit zum Selbstlernen ins Unbeherrschbare entwickeln. Dieser Rahmen zwinge auch zu Tests, mit denen die Deutschen ihre Vorsicht beim Umgang mit Künstlicher Intelligenz "kultivieren".

Zuvor hatte die Freiburger Informatikerin Hannah Bast im Rahmen der Impulsvorträge diesen Punkt unterstützt. KI muss ihr zufolge erklärbar sein. Es koste zwar extra, die Systeme entsprechend einzurichten und zu überprüfen, aber das "sollte man politisch einfordern". Die Sachverständige erläuterte, dass neuronale Netze vor allem bei der Bilderkennung schon recht gut abschnitten. Neue Systeme könnten hier bei 150.000 Aufnahmen und 1000 Kategorien 98 Prozent der Fotos korrekt zuordnen, was Menschen nicht besser gelinge.

Die Maschine verstehe Bilder aber "ganz anders als wir", berichtete Bast. So könne man Aufnahmen so verändern, dass das neuronale Netzwerk mit 100 Prozent Wahrscheinlichkeit etwa anderes darin sehe. Bei einem solchen "Deep Fool"-Angriff werde etwa aus einem mit einem Streifen verzierten Stopp-Schild ein "Tempolimit 45" oder "Vorfahrt achten". Bei selbstfahrenden Autos könnten solche Fehler tödlich enden.

Noch schwieriger tut sich die Maschine laut der Forscherin an der Verarbeitung menschlicher Sprache, da diese extrem vieldeutig und ungenau sei. Prinzipiell schaue sich ein lernendes System dafür Riesenmengen an Texten genau an und leite Bedeutungen aus den Wörtern ab, die jeweils nah beieinander stehen. Gebe es in den Trainingsdaten aber eine Voreingenommenheit oder Stereotypen, würden diese quasi mitgelernt und reproduziert. Der Computer vervollständige dann etwa "Mann ist zu Chefarzt wie Frau zu - Krankenschwester." Solche Fehler im System könne man "rausrechnen", was aber "niemand freiwillig macht".

Basts Kollegin Katharina Zweig von der TU Kaiserslautern machte am Beispiel des Crowdsourcing-Projekts Datenspende zur Bundestagswahl 2017 deutlich, dass potenzielle Auswüchse algorithmischer Entscheidungssysteme wie mögliche Filterblasen in Suchmaschinen durchaus gut auszuleuchten seien. Die Forscherin sprach sich dafür aus, dass "ständig" solche "Blackbox-Analysen" gemacht werden sollten. So könnten etwa Texte oder Vorhersagesysteme wie Predictive Policing auf Diskriminierungen hin untersucht werden. Dafür nötig seien ein anonymer Zugang zum KI-System, eine "Input-/Output-Struktur" und teils Datenspenden von echten Nutzern oder zumindest deren Simulation. Konzerne wie Facebook sperrten sich aber gegen solche externen Überprüfungen.

Andrea Martin von IBM unterstrich, dass Firmen eine gewisse Verantwortung für den sinnvollen Einsatz neuer Technologien wie KI hätten, wenn sie diese auf den Markt brächten. Big Blue habe daher seit 2017 einschlägige Prinzipien, wonach Künstliche Intelligenz im Dienste des Menschen stehen und fair, robust, nachvollzieh- und erklärbar sein müsse. Es sei wichtig, die Qualität der eingesetzten Trainingsdaten zu überwachen. Dies sei auch in einem Ethik-Leitfaden für Designer und Entwickler nachlesbar. (jk)