Algorithmic Bug Bountys sollen Fehler in Algorithmen aufspüren

Bug Bountys belohnen Hacker dafür, Bugs zu finden und zu melden. Algorithm Bountys sollen Ähnliches für computergenerierte Regeln leisten.

In Pocket speichern vorlesen Druckansicht 11 Kommentare lesen
Wachsame Augen einer Schneeeule

Je mehr geschulte Augen hinsehen, umso eher werden Unzulänglichkeiten erkannt.

(Bild: gemeinfrei)

Lesezeit: 2 Min.

Unbeabsichtigtes oder rechtswidriges Verhalten von Algorithmen ist oft schwer auszumachen. Die Algorithmen werden durch maschinelles Lernen erzeugt und sind sehr komplex. Gute Prüfer sind rar. Das möchte die Juristin Amit Elazari Bar On durch das Ausloben von Belohnungen ändern, wie sie bereits von Bug Bountys bekannt sind: Auszeichnungen, Geld, oder Chancen wissenschaftlicher Publikation sollen Dritte dazu animieren, Fehler in Algorithmen aufzustöbern und in verantwortungsvoller Weise zu melden.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Elazari hat sich mit der Kritik an juristischen Fallen in Bug Bountys einen Namen in der Hackerszene gemacht. Die Teilnahmebedingungen sind oft so ungeschickt formuliert, dass wohlgesinnten Teilnehmern Gefängnisstrafen drohen. Die Kritik der Juristin beginnt zu wirken, eine Reihe namhafter Unternehmen hat seine Bug-Bounty-Regeln inzwischen verbessert, darunter Tesla und Twitter.

Bei zukünftigen Algorithmic Bug Bountys wünscht sich Elazari gleich von Anfang an brauchbare Teilnahmeregeln und Sicherheitsgarantien. Sie hat ihre Idee im August auf der Sicherheitskonferenz Usenix Security in Baltimore vorgestellt und vor Ort mit heise online darüber gesprochen: "Wir müssen die gleiche Art von weltweitem Markt und Gemeinschaft kreieren, die wir bei IT-Security haben, durch juristischen Schutz sowie Anreize in Form von Geld oder Auszeichnungen", sagte Elazari. Das würde die kleine Schar von Algorithmus-Prüfern wachsen lassen.

Bekanntestes Problem von Algorithmen ist Diskriminierung. Um mittels maschinellem Lernen einen Algorithmus erzeugen zu können, muss der Computer mit umfangreichen Daten gefüttert werden. Ist dieses Ausgangsmaterial unausgewogen, kann auch der Algorithmus einseitig ausfallen und beispielsweise unerwünschte Diskriminierungen nach Hautfarbe, Geschlecht, oder Wohnort fortschreiben. Doch auch andere Fehlleistungen können Effizienz und Profitabilität von Algorithmen beeinflussen, etwa fehlerhafte Bilderkennung oder falsche Einschätzung der Kreditwürdigkeit.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Noch aber hat kaum ein Unternehmen eine Meldestelle für (vermutete) Problemfälle eingerichtet. Außerdem mangelt es an Unterstützung für die Tests, wozu beispielsweise Test-Zugänge sowie große Mengen Fake-Konten zählen. Doch Elazari ist zuversichtlich, dass es bald die ersten kommerziellen Algorithmic Bug Bountys geben wird.

Zudem sieht sie Raum für Wettbewerbe im Bildungsbereich, vergleichbar mit Capture-the-Flag-Turnieren für Hacker. Dabei würden Algorithmen bewusst mit unerwünschten Wirkungen ausgestattet; Turnierteilnehmer würden diese Probleme dann suchen und gegebenenfalls ausnutzen oder beseitigen. (ds)