KI Navigator #6: Alignment und Vertrauen – heute Fundamente für morgen legen
Um zu ethischen Prinzipien für KI zu gelangen, müssen wir zunächst darauf schauen, was wir den Modellen beibringen, meint Verena Barth.
- Verena Barth
Willkommen zur sechsten Ausgabe der KI-Navigator-Kolumne der DOAG KI Community!
Die Risiken von KI zeigen sich nicht nur in den dystopischen Szenen aus Science-Fiction-Filmen. Viele dieser Filme erzählen, was passiert, wenn eine überwältigend leistungsstarke KI nicht "aligned" ist, also nicht im Einklang mit unseren menschlichen Zielen und Werten steht. Um eine Zielfunktion zu optimieren und beispielsweise den Klimawandel zu bekämpfen, kommt die KI letztlich zu dem Schluss, der einfachste Weg sei, die Menschheit auszulöschen.
Wenn wir uns auf solch künftige hypothetische Risiken fokussieren, verlieren wir aus den Augen, dass es an vielen Stellen bereits überfällig ist, negative Einflüsse zu stoppen oder zu vermeiden. Schon heute kommen KI-Systeme in vielen Lebensbereichen zum Einsatz, sei es bei der Berechnung der Kreditwürdigkeit, dem Erfassen von Gesichtern auf öffentlichen Plätzen oder bei der Inhaltsauswahl von Nachrichten- und Social-Media-Plattformen, die unsere Meinung formen.
Erklärbarkeit der Entscheidungen
Diese KI-Systeme sind aufgrund ihrer Komplexität für den Menschen unverständlich und ihre Ergebnisse meist nicht nachvollziehbar, es handelt sich um Black Boxes. Um Sicherheit, Fairness und Vertrauen in die KI-Systeme zu gewährleisten, entstand das Konzept der Explainable AI (XAI), die die Interpretierbarkeit von ML-Modellen fördern will, ohne dabei ihre Performance einzuschränken.
Denn leider kommt es immer wieder zu Skandalen: Bereits 2016 wurde in den USA ein rassistischer Algorithmus eingesetzt, der das Strafmaß eines Angeklagten durch die Vorhersage der Wahrscheinlichkeit einer erneuten Straftat bestimmt. Er stufte schwarze Menschen fast doppelt so häufig fälschlicherweise als zukünftige Kriminelle ein wie weiße Menschen.
Aber auch XAI-Methoden bieten nur begrenzte Einblicke in Entscheidungsprozesse und können theoretisch für "Fairwashing" manipuliert werden: Ein manipuliertes Erklärungsmodell liefert faire Erklärungen für unfaire Entscheidungen. Dennoch bleibt XAI bei Black-Box-Modellen die einzige Chance, eine Erklärung für eine automatisierte Entscheidung zu erhalten, damit man sich nicht verloren fühlt wie der Protagonist in Franz Kafkas Roman "Der Prozess": Wie beim Urteil im Roman fällt die KI intransparente Entscheidungen, für die man weder eine Begründung erhält noch die Möglichkeit hat, etwas daran zu ändern.
Alignment sicherstellen
KI-Alignment beginnt bei der Zielfunktion: Was soll der Einsatz eines Modells erreichen? Als Leitlinie muss der Zweck ethisch vertretbar sein. Zudem gibt es zwei Stellschrauben bei algorithmischen Vorhersagen:
Der eine Bereich bezieht sich auf das Erstellen der Vorhersage, für die ein Modell mit einer riesigen Datenmenge trainiert wurde, das dann die komplexen, daraus erlernten Korrelationen und Muster für neue Entscheidungen und Generierungen verwendet. Häufig sind diskriminierende Biases (Verzerrungen) in den Daten vorhanden. Selbst bei einer perfekten Daten- und Feature-Auswahl können Voreingenommenheit und soziotechnische Probleme in den Datenerzeugungsprozess einsickern.
Für das obige Beispiel des rassistischen Algorithmus lag das Problem darin, dass "stichprobenartig" deutlich mehr schwarze Menschen von der Polizei kontrolliert und somit im Datensatz erfasst werden als weiße. Aber selbst wenn Data Scientists kritische Features wie Geschlecht oder ethnische Zugehörigkeit aus dem Datensatz entfernen, sind sie potenziell durch Korrelationen zu anderen Features implizit immer noch im Datensatz vorhanden (Proxy-Features).
Als zweiter Schritt folgt die Allokation von Ressourcen, bei der eine Entscheidung auf dieser Vorhersage basiert. Selbst wenn die Vorhersage akkurat ist, kann die Entscheidung trotzdem unfair sein. Um sichere und faire Modelle zu erstellen, sollten daher die zu Grunde liegenden Daten optimal aufbereitet sein. Außerdem ist es wichtig, Guidelines und Regularien zu beachten, kritische Vorhersagen von Menschen prüfen zu lassen und das Recht zur Erklärung zu ermöglichen – beispielsweise mit XAI.
Fraglich ist jedoch, ob es immer sinnvoll ist, die KI dazu zu zwingen, politisch korrekte, diverse Ergebnisse zu liefern. Bin ich intolerant, wenn ich mir ein Bild der "Gründungsväter der USA" erzeugen möchte und mit dem Ergebnis, das eine schwarze Frau enthält, nicht zufrieden bin? Soll Google bei der Bildersuche nach "CEO" lauter Bilder von Männern anzeigen und dabei klischeehafte Vorurteile stärken oder lieber eine wünschenswerte diverse Welt, die es so (noch) nicht gibt?
Alignment mit den eigenen Wertvorstellungen
Wir verlangen ethische Prinzipien für KI, die aber letztlich das liefert, was wir ihr beibringen. Bevor wir uns anmaßen, eine mächtige neue "Spezies" zu belehren, die uns in vielen Bereichen ersetzen und eigenmächtig Entscheidungen für uns treffen soll, sollten wir uns darüber im Klaren sein, dass sie unsere teilweise verborgenen Vorurteile widerspiegelt.
Das beginnt mit den Trainingsdaten: Beim ungefragten Scrapen des Internets sollte man bedenken, dass Daten nicht immer abstrakte und immaterielle Entitäten sind, sondern oft Ausdruck von Kreativität oder Lebenswerke, in die unzählige Stunden oder gar Jahre an Arbeit investiert wurden. Sie wurden von Menschen erstellt, von großen Unternehmen ohne Zustimmung, Wertschätzung oder Vergütung angeeignet und werden für Systeme verwendet, die Menschen ersetzen sollen.
Bei Microtasking-Plattformen wie Amazon Mechanical Turk müssen Menschen (meist in prekären wirtschaftlichen Verhältnissen) monotone Aufgaben wie das Annotieren von Daten und Moderieren von Inhalten unter ständiger Überwachung und schlechter Entlohnung erledigen. Statt als Tool zu dienen, automatisiert KI nun komplexe Arbeit, während Menschen zu Zuarbeitern der Maschine werden.
Die Science-Fiction-Autorin Joanna Maciejewska hat es in einem viel beachteten Post auf X auf den Punkt gebracht: "Ich möchte, dass KI meine Wäsche und meinen Abwasch erledigt, damit ich mich der Kunst und dem Schreiben widmen kann, statt dass die KI meine Kunst und mein Schreiben übernimmt, damit ich mich um meine Wäsche und meinen Abwasch kümmern kann."
Beim Betrieb der Modelle besteht neben unfairen Vorhersagen und dem riesigen Ressourcenverbrauch außerdem die Gefahr, dass die Grenzen zwischen Mensch und Maschine verschwimmen und wir emotional zu abhängig von ihnen werden. Ein Beispiel dafür ist der vermeintlich verständnisvolle KI-Freund: Die Site Replika wirbt mit der Tagline "The AI companion who cares".
Jenseits der Erfahrungen im eigenen Unternehmen und der Branchenexpertise der Data Scientists ist es hilfreich, aus Best Practices anderer Unternehmen und Anwendungen zu lernen. Hierfür bietet sich die KI-Navigator-Konferenz an, die am 20. und 21. November 2024 in Nürnberg stattfindet.
Die von DOAG, Heise Medien und de’ge’pol ausgerichtete Veranstaltung ist die zentrale Plattform für Entscheidungsträger aus Wirtschaft, Technik und Gesellschaft, um sich über die praktischen Anwendungen und Herausforderungen der KI in Deutschland auszutauschen. In dieser Konferenz steht der praktische Nutzen im Vordergrund, wobei die Teilnehmenden direkte Einblicke in erfolgreiche Implementierungen und Optimierungen von KI-Systemen erhalten.
Zusätzlich fördert die KI-Navigator-Konferenz den Austausch von Best Practices und ermöglicht das Knüpfen von strategischen Partnerschaften, um die dynamischen Entwicklungen in der KI-Branche nachzuvollziehen und innovative Lösungen zu erkunden, die bereits heute die Grenzen des Machbaren in der Technologie, Wirtschaft und Gesellschaft verschieben.
Als OpenAIs GPT-4o mit der Stimme der KI-Protagonistin des Films "Her" sprach, die in dem Science-Fiction-Drama Gefühle für einen Menschen entwickelt, bekam ich ein mulmiges Gefühl. Die Sprecherin Scarlett Johansson hatte ein Angebot des OpenAI-CEO Altman diesbezüglich übrigens abgelehnt und antwortete mit ihren Anwälten, klagte über die Verletzung ihrer Persönlichkeitsrechte und forderte Transparenz.
Die richtige Balance finden
Es gibt einige Kompromisse, die mit KI-Alignment in Verbindung stehen. Künstliche Intelligenz löst Optimierungsprobleme und das Ziel der Maximierung der Vorhersagegenauigkeit ist ein anderes als das der Minimierung von Bias: Accuracy vs. Fairness. Streben wir nach einer Technologie, die unfehlbare Effizienz bietet, auch wenn sie dadurch Ungleichheiten zementiert? Oder wünschen wir uns eine Gesellschaft, in der technologische Systeme bewusst auf soziale Gerechtigkeit ausgelegt sind, auch wenn das mit Kompromissen bei der Genauigkeit einhergeht?
Die Wahl zwischen Transparenz und Leistung ist ein Balanceakt, der vom Anwendungsfall und den Auswirkungen der Entscheidungen abhängt. Einfachere ML-Modelle sind interpretierbarer und vertrauenswürdiger, können aber an Genauigkeit verlieren oder nur weniger komplexe Daten verarbeiten. In sicherheitskritischen Bereichen wie Medizin hat Transparenz oft Vorrang vor Leistung.
Transparenz und Vertrauen
Was können wir tun, um heutige und künftige KI-Modelle an unsere Werte anzupassen? Zunächst sollten wir die Verantwortung nicht denjenigen überlassen, die die Modelle trainieren, sondern unsere eigenen Werte konsequent leben und bewusst auf die Integrität unserer menschlichen Entscheidungen achten, auch im Hinblick auf die digitale Spur unserer Handlungen. Frei nach Mahatma Gandhi könnte man sagen: "Sei die Daten, die du dir für diese Welt wünschst".
Wir sollten KI möglichst transparent und vertrauenswürdig halten und verantwortungsvoll zum Wohl aller Menschen verwenden. Es gibt viele Fragen, auf die wir keine Antwort haben, viele menschliche (existenzielle) Ängste, die es zu berücksichtigen gilt und viele Kompromisse, die wir eingehen müssen. Wichtig ist, dass wir uns dessen bewusst sind, um ein solides Fundament für eine faire Zukunft zu legen.
(rme)