Algo.Rules: Ethische Standards sollen im Programmcode verankert werden

Algorithmische Systeme sollen stets nachvollziehbar und während des gesamten Einsatzes gestaltbar bleiben, fordern die Bertelsmann-Stiftung und iRights.

In Pocket speichern vorlesen Druckansicht 131 Kommentare lesen
Algo.Rules: Ethische Standards sollen im Programmcode verankert werden

(Bild: sdecoret / shutterstock.com)

Lesezeit: 4 Min.
Inhaltsverzeichnis

Die Bertelsmann-Stiftung und die Denkfabrik iRights.Lab haben am Donnerstag in Berlin mit den "Algo.Rules" neun goldene Regeln für algorithmische Systeme präsentiert. Der Einsatz von Programmroutinen zur Lösung vorab definierter Probleme müsse gekennzeichnet und die Entscheidungsfindung "stets nachvollziehbar" sein, heißt es in dem Papier. Dafür sollten Informationen über die zugrunde liegenden Daten und Modelle, die Architektur sowie die möglichen Auswirkungen "veröffentlicht und in leicht verständlicher Sprache dargestellt werden".

"Ein algorithmisches System muss während seines gesamten Einsatzes gestaltbar sein und bleiben", verlangen die beiden Einrichtungen. Alle beteiligten Personen sollten gemeinsam stets die Kontrolle darüber behalten und den Gesamtüberblick behalten. Überkomplexe und undurchschaubare Blackbox-Verfahren dürfe es nicht geben, was gerade für selbstlernende Systeme und Künstliche Intelligenz (KI) gelten müsse. Könne die Beherrschbarkeit nicht sichergestellt werden, sei auf einen Einsatz zu verzichten.

Das Rahmenwerk enthält auch einen Ruf nach einer "niedrigschwelligen und wirksamen Beschwerdemöglichkeit" für Betroffene. Die Sicherheit einschlägiger Programme müsse fortlaufend gewährleistet, Ziele und erwartete Wirkungen sollten dokumentiert sowie abgewogen werden. Es sei stets sicherzustellen, dass eine natürliche oder juristische Person verantwortlich ist.

Der Katalog soll eine "gesellschaftlich förderliche Gestaltung" algorithmischer Systeme ermöglichen und erleichtern. "Die Regeln schaffen Voraussetzungen für ethische Erwägungen und für die Um- und Durchsetzung rechtlicher Rahmenbedingungen im Zeitalter von Algorithmen", betonen die Partner. Die Kriterien sollten bereits bei der Entwicklung der Systeme mitgedacht und "by design" direkt in die Technik eingebaut werden. Gedacht sind die Kriterien vor allem für alle, die mit Algorithmen arbeiten, sie entwerfen oder anwenden.

Vor allem mit dem Aspekt größerer Nachvollziehbarkeit entstehe ein "enormer Mehrwert", betonte die frühere Bundesjustizministerin Sabine Leutheusser-Schnarrenberger. "Wir brauchen Teilhabe, müssen vermitteln, dass diese Entwicklungen eingebettet sind in unser Normensystem und Wertefundament" bis hin zur EU-Grundrechtecharta oder der Menschenrechtskonvention. Algorithmen würden von Menschen gemacht, sie "fallen nicht vom Himmel".

Mit der zunächst angestrebten Selbstverpflichtung könnten etwa Unternehmen sich selbst binden und "erst mal schneller reagieren mit", befürwortete die Liberale die Stoßrichtung des Katalogs. Dies schließe aber nicht aus, dass zu "Einzelpunkten wie der Überprüfung und Beschwerdemöglichkeiten" gesetzliche Bestimmungen mit Verbindlichkeit für allgemeineren Adressatenkreis beschlossen würden. Es handle sich um ein Angebot an alle, "die in diesem Prozess eine aktive Rolle haben".

"Wir haben mit einigen der Fintechs gesprochen", erklärte der Vorstand der Bertelsmann-Stiftung, Jörg Dräger. Diese hätten ein Problem mit der Glaubwürdigkeit und die Regeln daher als Wettbewerbsvorteil begrüßt. Auch bei Kontakten mit Experten vom Polizeipräsidium NRW für "Predictive Policing" sei er beeindruckt gewesen, "mit welcher Sorgfalt sie sich dem Thema näherten".

Noch keine Gespräche habe es mit Scoring-Anbietern wie der Schufa oder der zu Bertelsmann gehörenden Auskunftei Arvato gegeben, sagte Dräger. Diese seien generell bei Veranstaltungen zu dem Thema "nicht die ersten" gewesen, "die zugesagt haben". Der Stiftungschef berichtete aber, dass in den USA einige Bundesstaaten den Einbezug der Kredithistorie in die Tarifgestaltungen von Autoversicherungen untersagt hätten. Zuvor hätten dort "Verkehrsrowdys" weniger gezahlt als nicht so zahlungskräftige Autofahrer.

Die zwei Einrichtungen haben die Leitlinien im Rahmen eines breiten Beteiligungsprozesses erarbeitet, in den sie im Rahmen von Workshops und Interviews rund 400 Personen aus unterschiedlichsten gesellschaftlichen Bereichen und wissenschaftlichen Disziplinen einbezogen haben. Sie sehen in dem Projekt einen ersten Versuch, algorithmische Systeme gemeinwohlorientiert zu gestalten. In der nächsten wollen sie die Regeln für unterschiedliche Zielgruppen wie Programmierer oder Führungskräfte in Unternehmen spezifizieren und Implementierungsstrategien erarbeiten.

"Erklärbarkeit und Transparenz von KI" hat auch die Bundesregierung in ihrer einschlägigen Strategie als Schlüssel für das Vertrauen in die Technik ausgemacht. Parallel arbeiten die Enquete-Kommission für Künstliche Intelligenz des Bundestags sowie die Datenethik-Kommission der Regierung an Regeln für computergestützte Entscheidungen. "Wir wollen politische Zugkraft reinkriegen" unterstrich Philipp Otto von iRights, da eine reine "Berufsethik für Programmierer" zu kurz greife. Denkbar sei es etwa, öffentliche Aufträge an die Kriterien zu knüpfen oder Aufsichtsbehörden stärker einzubeziehen. (mho)