Algorithmen: Nützliche Hilfsmittel oder Gefahr?

Die Sorge vor einer Übermacht der Algorithmen ­beschäftigt Politik und Öffentlichkeit. Da kann etwas Grundwissen über ihre Funktion nicht schaden.

In Pocket speichern vorlesen Druckansicht 18 Kommentare lesen
Algorithmen: Nützliche Hilfsmittel oder Gefahr?

(Bild: Albert Hulm)

Lesezeit: 4 Min.
Inhaltsverzeichnis

Sie sind überall, und sie sind mächtig: Algorithmen entscheiden, ob wir einen Job bekommen oder nicht, wie kreditwürdig wir sind, welche Nachrichten wir sehen, was wir lesen, sehen und hören. Für viele Menschen klingt das mittlerweile mehr wie eine Drohung als eine Verheißung. So bedrohlich, dass inzwischen auch die Politik aufgewacht ist: Die Bundesregierung etwa berief eine Datenethikkommission ein.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Im Herbst 2019 legten die 16 von der Bundesregierung eingesetzten Experten ein erstes Gutachten vor. Mit drastischen Forderungen: Unter anderem empfahl die Kommission ein risikoadaptiertes Regulierungssystem für den Einsatz algorithmischer Systeme, eine Bewertung von Programmen nach „Kritikalität“ und „Schädigungspotenzial“ und sogar ein komplettes Verbot der allerschädlichsten Programme.

Mehr Infos

Ist das eine vernünftige Abwägung der Risiken technischer Entwicklung oder die Angst vor der Allmacht der Maschine? Eine Angst, die sich mehr aus popkulturellen Bildern und überzogenen Marketing-Versprechen speist als aus konkretem Wissen? Dieser Schwerpunkt soll diese Diskussion versachlichen: Er zeigt in den Artikeln der c't 8/2020 anhand von Vorschlagsalgorithmen, Googles PageRank-Verfahren und Routing-Systemen, was Algorithmen so bedeutsam macht und wo ihre Risiken und Nebenwirkungen liegen.

Im Kern sind Algorithmen in der IT zunächst nichts weiter als eine Folge von Rechenanweisungen. Was sie so mächtig und gelegentlich problematisch macht, ist nicht ihre Ausführung, sondern der Kontext, in dem sie entworfen und verwendet werden. Denn um abstrakte Probleme für Computer berechenbar zu machen, muss die Problemstellung auf ein mathematisches Modell abgebildet werden. Der betreffende Algorithmus löst dann dieses mathematisch abstrahierte Problem.

Die abstrakte Lösung kann dann auf alle möglichen konkreten Probleme angewandt werden. Einem Sortier-Algorithmus beispielsweise ist es egal, ob er Zahlenwerte sortiert, Produkte nach Beliebtheit oder Bilder nach ihrem Motiv. So gesehen sind Algorithmen wirklich so mächtig, präzise, unbestechlich und objektiv, wie viele Menschen glauben.

Ein kritischer Punkt dabei ist jedoch, wie genau eigentlich unscharfe, subjektive Größen wie Beliebtheit, Schönheit oder auch die Eignung für einen Job in Zahlenwerte übersetzt werden – die sogenannte Objektivierung. Denn das mathematische Modell kann immer nur einen kleinen Ausschnitt aus der Realität abbilden. Welche Größen wie genau mathematisch abgebildet werden, kann jedoch großen Einfluss auf das Ergebnis einer Berechnung haben. Wer unsinnige Daten eingibt, wird unsinnige Ergebnisse bekommen. „Garbage in, garbage out“ wie der Informatiker sagt.

Dazu kommt, dass oftmals nicht alle Daten zur Verfügung stehen, die für eine exakte Berechnung notwendig wären. Ein autonomes Auto beispielsweise muss seine nächsten Aktionen anhand äußerst lückenhafter Sensordaten planen – und noch dazu damit rechnen, dass sich die Situation während der Planung weiter verändert.

Das Auto kann nicht mehr bremsen, wen soll es überfahren? Derzeit sind solche Überlegungen noch Gedankenspiele. Eines Tages müssen selbstfahrende Autos aber vielleicht genau solche Entscheidungen treffen.

Die Antwort der Informatik darauf sind Vereinfachungen, die oft, aber nicht zwingend immer zum Ziel führen: Sie vergleichen – ähnlich, wie es der Mensch tun würde – die Situation mit früheren Erfahrungen, versuchen die Konsequenz einer falschen Entscheidung abzuschätzen, treffen Annahmen über die zukünftige Entwicklung – und im Zweifelsfall lassen sie den Zufall per Münzwurf entscheiden.

Diese Erkenntnis ist alles andere als beruhigend. Denn sie bedeutet, dass die Bewertung und Regulierung von Algorithmen von ihrem Kontext abhängt. Die Annahmen, unter denen Algorithmen zum Einsatz kommen, sind genauso zu hinterfragen wie die Datenbasis und die heuristischen Methoden. An dieser Diskussion wird kein Weg vorbeiführen. Der Artikel "Ethik der Algorithmen" gibt den aktuellen Stand dieser Diskussion wieder.


Dieser Artikel stammt aus c't 8/2020.
(jo)