KI-Kommission: Ruf nach reproduzierbaren und deterministischen Systemen fürs autonome Fahren

Der Startup-Verband forderte im Bundestag klare technische Vorgaben für Roboterautos. Ein Datenanalyst warb dafür, das KI-Potenzial zu demokratisieren.

In Pocket speichern vorlesen Druckansicht 32 Kommentare lesen
KI-Kommission: Ruf nach reproduzierbaren und deterministischen Systemen fürs autonome Fahren

(Bild: Gerd Altmann, gemeinfrei)

Lesezeit: 4 Min.
Inhaltsverzeichnis

Mindeststandards für die Sicherheit und die Haftung von Systemen mit Künstlicher Intelligenz (KI) reichen nicht aus, um autonome Fahrzeuge im Regelbetrieb auf die Straße zu bringen. Dies betonte Roy Uhlmann vom Bundesverband deutsche Startups am Montag in der Enquete-Kommission des Bundestags für KI: "Wir brauchen hier reproduzierbare, kausale und überprüfbare Systeme." Sonst seien Unfälle "irgendwann programmiert".

Das vollautomatisierte Fahren mit Robo-Autos ohne Lenkrad, Gaspedal oder Bremse bezeichnete Uhlmann als "domänspezifische starke KI". Der Nutzer müsse dieser "100 Prozent Vertrauen" entgegenbringen. Die Entwickler gäben zwar auch hier Grenzen vor mit den eingefütterten Daten und Spielregeln. Ein solches autonomes System könne Entscheidungen aber prinzipiell in unterschiedlicher Weise treffen. Umso wichtiger sei es, dass darin "unsere Werte" widergespielt würden, auch wenn die Hardware wie Sensoren bereits größtenteils aus China komme.

Dass Waymos selbstfahrende Autos bereits über zehn Millionen Meilen zurückgelegt haben, hält Uhlmann daher nicht für wirklich entscheidend. Der Google-Ableger ziehe dafür bislang ein ganz anderes Sicherheits- und Wertesystem heran als europäische Firmen und nehme in Kauf, dass es damit "in soundso vielen Fällen einen Unfall geben wird". Dies könnten Autohersteller aber letztlich nicht in ihren Verkaufsprospekt schreiben. Für Uhlmann kommen daher nur deterministische Systeme in diesem Bereich in Frage, deren Verhalten sich prinzipiell aus einem vorherigen Zustand ableiten lässt und deren Ausgangswerte nicht von künftigen Eingaben abhängen.

Es sei auch ungenügend, wenn die Sensor- und Bilderkennungstechnik in einem autonomen Wagen Objekte in der Umwelt nur zu 97 Prozent wahrnehme, meinte Uhlmann. Die Versicherungswirtschaft überlege daher bereits, ob solche Fahrzeuge überhaupt versicherbar seien. Realisierbar sei eventuell eine Haftung parallel zum Arbeitsschutzgesetz, um etwa dafür zu sorgen, dass die Hersteller alles ihnen Mögliche getan hätten, um die Verkehrssicherheit zu gewährleisten. Gegebenenfalls müsse die Politik entscheiden, ob ein solches Modell komplett verboten oder weiterentwickelt werden sollte.

Das eingeforderte Vertrauen gegenüber KI-Systemen hielt Joachim Fetzer vom Deutschen Netzwerk Wirtschaftsethik zumindest als gesellschaftliches Leitbild für fragwürdig. Dies liege schon daran, dass es nicht so einfach sei, überhaupt ein Leitbild für die pluralistische Gesellschaft zu entwickeln. Unternehmen oder Verbände könnten zwar etwa mithilfe etwa von Sicherheitsbestimmungen, Haftungsregeln oder Gütesiegeln in Vertrauenswürdigkeit investieren, doch letztlich handle es sich dabei um "ein Geschenk". Das Vorhaben der EU-Kommission, einen Rahmen für "vertrauenswürdige KI" aufzustellen, sei ein "schwieriges Unterfangen".

"Alte Industriesysteme stehen unter Angriff", warnte Hans-Christian Boos von der Firma Arago vor dem Durchmarsch der auf KI setzenden Plattformen aus den USA und China. Europa müsse dem eine neue Generation von Automation entgegensetzen, bei der nur das Endergebnis vorgeschrieben werde, nicht jedoch der Lösungsweg. Dies werde zwar auch das heutige Beschäftigungssystem auf den Kopf stellen. Menschen würden aber nach wie vor gebraucht, um die Maschinen zu programmieren und für den sozialen Kontakt. Den Eindruck zu erwecken zu versuchen, dass Maschinen etwas Menschliches hätten, bringe dagegen nichts: KI-Forschern sei es seit 50 Jahren nicht gelungen, auch nur "irgendwas" aus dem Gehirn anständig zu replizieren.

Für die Wirtschaft biete Künstliche Intelligenz ein großes Potenzial, erläuterte Johannes Müller vom Netzwerk CorrelAid. Unternehmen könnten damit etwa die Wahrscheinlichkeit berechnen, mit der ein Kunde abspringe sowie ihre Logistikkette oder den Kundendienst optimieren. Es gelte aber, diese Möglichkeiten zu demokratisieren und auch der Zivilgesellschaft zur Verfügung zu stellen. (anw)