RightsCon: Es ist an der Zeit, über die wahren KI-Risiken zu sprechen
KI-Experten auf der RightsCon-Konferenz fordern, dass wir uns weniger auf existenzielle Bedrohungen konzentrieren als auf die Schäden im Hier und Jetzt.
- Tate Ryan-Mosley
Anfang Juni fand die RightsCon statt, die weltweit größte Konferenz für digitale Rechte. Nach mehreren Jahren, in denen die Diskussionen nur virtuell abliefen, trafen sich nun die führenden Internet-Ethiker, Aktivisten und politischen Entscheidungsträger wieder persönlich in Costa Rica.
Es überrascht nicht, dass alle über Künstliche Intelligenz (KI) und den jüngsten Ansturm auf große Sprachmodelle redeten. Im Vorfeld der Konferenz hatten die Vereinten Nationen eine Erklärung abgegeben, in der sie die Teilnehmer aufforderten, sich auf KI-Aufsicht und Transparenz zu konzentrieren. Überraschend war jedoch, wie sehr sich die Gespräche über die Risiken der generativen KI auf der RightsCon von all den Warnungen der großen Silicon-Valley-Stimmen aus den Nachrichten unterschieden.
In den letzten Wochen haben Tech-Koryphäen wie OpenAI-CEO Sam Altman, der Ex-Googler Geoff Hinton, der Spitzen-KI-Forscher Yoshua Bengio, Elon Musk und viele andere eine Regulierung und dringende Maßnahmen gefordert, um die „existenziellen Risiken“ – bis hin zum Aussterben der Menschheit– zu bekämpfen, die KI für die Menschheit darstellt.
Ein KI-Goldrausch der Unternehmen
Sicherlich ist der schnelle Einsatz großer Sprachmodelle ohne Risikobewertungen, Offenlegung der Trainingsdaten und -prozesse, oder auch scheinbar viel Aufmerksamkeit für die Frage, wie die Technologie missbraucht werden könnte, beunruhigend. In mehreren Diskussionsrunden auf der RightsCon betonten die Redner jedoch erneut, dass dieser KI-Goldrausch ein Produkt des Gewinnstrebens von Unternehmen ist und nicht unbedingt auf regulatorisches Ungeschick oder technologische Unvermeidbarkeit zurückzuführen ist.
In der allerersten Sitzung lieferten sich Gideon Lichfield, Chefredakteur von Wired und ehemaliger Chefredakteur der US-Technology Review, und Urvashi Aneja, Gründerin des Digital Futures Lab, einen Schlagabtausch mit Kent Walker von Google. „Satya Nadella von Microsoft sagte, er wolle Google zum Tanzen bringen. Und Google hat getanzt“, sagte Lichfield. „Wir springen jetzt alle in die Leere und halten uns die Nase zu, weil diese beiden Unternehmen versuchen, sich gegenseitig zu übertrumpfen.“ Walker betonte in seiner Antwort die sozialen Vorteile, die Fortschritte in der künstlichen Intelligenz in Bereichen wie der Arzneimittelforschung bringen könnten, und bekräftigte Googles Engagement für die Menschenrechte.
Am nächsten Tag sprach der KI-Forscher Timnit Gebru das Gerede von den existenziellen Risiken der KI direkt an: „Einem Werkzeug Handlungsfähigkeit zuzuschreiben, ist ein Fehler, und das ist ein Ablenkungsmanöver. Und wenn Sie sehen, wer so redet, dann sind es buchstäblich dieselben Leute, die Milliarden von Dollar in diese Unternehmen gesteckt haben.“
Echte Schäden schon heute
Gebru sagte weiter: „Erst vor ein paar Monaten sprach Geoff Hinton über GPT-4 und wie es der Schmetterling der Welt ist. 'Oh, es ist wie eine Raupe, die Daten aufnimmt und sich dann in einen wunderschönen Schmetterling verwandelt', und jetzt ist es plötzlich ein existenzielles Risiko. Ich meine, warum nehmen die Menschen diese Leute ernst?“
Aus Frustration über die Erzählungen rund um die KI schlagen Experten wie Frederike Kaltheuner, Direktorin für Technologie und Menschenrechte bei Human Right Watch, vor, sich mit den Risiken zu befassen, von denen wir bereits wissen, dass sie mit der KI verbunden sind, anstatt darüber zu spekulieren, was kommen könnte. Tatsächlich gibt es einige klare, gut dokumentierte Schäden durch den aktuellen Einsatz von KI. Einige Beispiele:
- Vermehrte und verstärkte Fehlinformationen: Es hat sich gezeigt, dass Empfehlungsalgorithmen auf Social-Media-Plattformen wie Instagram, Twitter und YouTube extremen und emotional ansprechenden Inhalten den Vorzug geben, unabhängig von ihrer Genauigkeit. Große Sprachmodelle tragen zu diesem Problem bei, indem sie überzeugende Fehlinformationen produzieren, die als „Halluzinationen“ bekannt sind.
- Verzerrte Trainingsdaten und Ergebnisse: KI-Modelle werden in der Regel auf verzerrten Datensätzen trainiert, was zu verzerrten Ergebnissen führen kann. Dies kann bestehende soziale Ungleichheiten verstärken, wie im Fall von Algorithmen, die Menschen diskriminieren, wenn sie Risikobewertungen für Sozialhilfebetrug vergeben, oder von Gesichtserkennungssystemen, von denen bekannt ist, dass sie bei dunkelhäutigen Frauen weniger genau sind als bei weißen Männern. Es gibt auch dokumentierte Fälle davon, wie ChatGPT rassistische Inhalte verbreitet hat.
- Aushöhlung der Nutzer-Privatsphäre: Für das Training von KI-Modellen sind riesige Datenmengen nötig, die oft aus dem Internet stammen oder gekauft werden. Das wirft Fragen zur Einwilligung und zum Datenschutz auf. Die Unternehmen hinter den großen Sprachmodellen wie ChatGPT und Bard haben noch nicht viele Informationen über die Datensätze veröffentlicht, mit denen sie trainiert wurden, obwohl sie sicherlich eine Menge Daten aus dem Internet enthalten.
PTSD durch die Arbeit an ChatGPT
Kaltheuner warnt besonders vor dem Einsatz generativer KI-Chatbots in riskanten Kontexten wie der Psychotherapie: „Ich mache mir Sorgen über absolut unbedachte Anwendungsfälle von generativer KI für Dinge, für die die Technologie einfach nicht konzipiert oder geeignet ist.“
Gebru wiederholte ihre Sorge über die Umweltauswirkungen des großen Energiebedarfs der Rechenleistungen, die zur Ausführung anspruchsvoller großer Sprachmodelle nötig sind. Sie sei von Google gefeuert worden, als sie diese und weitere Bedenken in internen Untersuchungen geäußert hat. Zudem hätten die schlecht bezahlten Moderatoren von ChatGPT durch ihre Arbeit, die giftigen Ausgaben der Modelle abzumildern, auch schon ein Posttraumatisches Stresssyndrom erlebt.
In Bezug auf die Zukunftssorgen für die Menschheit fragt Kaltheuner: „Wessen Aussterben? Das Aussterben der gesamten menschlichen Rasse? Wir erleben bereits jetzt, dass Menschen, die historisch an den Rand gedrängt werden, Schaden nehmen. Deshalb finde ich das ein bisschen zynisch.“
(vsz)