Googles Model Card – der Beipackzettel für den AI-Algorithmus

Automatisch erstellte Algorithmen müssen verantwortungsvoll eingesetzt werden. Das beginnt schon bei der Planung. Über den Erfolg kann Offenlegung entscheiden.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Warnschild vor verschneitem See verbietet Schwimmen und warnt vor dünnem Eis

Konkrete Hinweise auf Einschränkungen sollen Fehleinsätze hintanhalten.

(Bild: Daniel AJ Sokolov)

Lesezeit: 5 Min.
Inhaltsverzeichnis

Es kommt darauf an, was man daraus macht. Dieser Beton-Werbespruch gilt auch für Algorithmen. Doch woher weiß man, wofür ein Algorithmus gedacht ist und wo seine Grenzen liegen? Genau weiß das niemand. Aber die bekannten Faktoren sollten doch bitte offengelegt werden, meint Google, damit die Algorithmen nicht vergeblich oder gar in schädlicher Weise eingesetzt werden. Der Datenkonzern hat für die Form der Offenlegung auch einen Vorschlag: sogenannte Model Cards.

Model Cards für Algorithmen sollen, ähnlich wie Nährwertangaben auf verpackten Lebensmitteln oder Beipackzettel bei Medikamenten, in strukturierter Form Auskunft über Leistungsmerkmale des jeweiligen Algorithmus geben. Eine Model Card für einen Algorithmus, der Hunderassen anhand von Hundefotos erkennen soll, könnte erklären, welche Art von Algorithmus eingesetzt wird, welche Art von Bildern die besten Resultate ermöglicht, und statistische Daten über die Genauigkeit in bestimmten Bildersammlungen machen.

Wurde beispielsweise ein Algorithmus zur Erkennung von Hautkrankheiten an Bildern isländischer Patienten trainiert, wäre das eine wichtige Information, da der Algorithmus womöglich bei australischen Ureinwohnern eine völlige andere Trefferquote an den Tag legt. Google lädt alle Machine-Learning-Entwickler dazu ein, bei der Definition der Model Cards wie bei der Entwicklung von Werkzeugen zur einfacheren Erstellung der Model Cards mitzuarbeiten. Denn eine Model Card zu befüllen, ist aufwändig.

Der Screenshot zeigt einen Ausschnitt einer Model Card

(Bild: Google/Screenshot)

Das Konzept haben Google-Forscher vor zwei Jahren in einem wissenschaftlichen Aufsatz vorgeschlagen; inzwischen gibt es eine Beta-Version der Model Cards. Der Datenkonzern selbst hat jüngst zwei Beispiele veröffentlicht: Eine Model Card für einen Algorithmus, der in Fotos und Videos Gesichter aufspürt, und eine Model Card für einen Algorithmus, der hunderte Objekte erkennen soll.

Laut Google sind die Model Cards Teil des Strebens nach fairen Algorithmen und deren verantwortungsbewusstem Einsatz. Seit über drei Jahren arbeitet Google an Prinzipien für verantwortungsbewusste Künstliche Intelligenz (KI). Nach aktuellem Stand hat sich Google sieben Prinzipien und vier Verbote verordnet, wie Mitarbeiter am Montag in einer Konferenz mit internationalen Journalisten erzählten.

Googles KI soll sozial nützlich sein, keine unfairen Vorurteile verstärken oder kreieren, von Beginn an auf Sicherheit ausgerichtet und auch überprüft worden sein. Ferner sollen sie Menschen gegenüber Rechenschaft ablegen müssen, von Anfang an auf Datenschutz ausgerichtet sein, hohe wissenschaftliche Standards erfüllen und für Anwendungen zur Verfügung gestellt werden, die diese Prinzipien ebenfalls beachten. Nicht willkommen ist KI-Einsatz, wenn er mehr schadet als nützt, wenn Verletzungen bezweckt werden, wenn er der Überwachung über "international akzeptierte Normen" hinaus dient, oder wenn der Zweck internationales Recht oder Menschenrechte verletzt.

Bevor Google einen Algorithmus freigibt, muss er ein aufwändiges Verfahren durchlaufen. Am Anfang steht die Frage, wer damit welche Probleme lösen soll, am Ende die Frage, ob sich der Algorithmus so verhält, wie erwartet. Dazwischen liegen viele Schritte.