"ChatGPT ist kein Zivilisationsbruch": Don't Panic – Stimmen zum Open Letter

Brauchen wir ein Moratorium für große KI-Modelle? Der offene Brief des "Future of Life"-Instituts entfachte eine Kontroverse. So ordnet die Fachwelt ihn ein.

In Pocket speichern vorlesen Druckansicht 208 Kommentare lesen

(Bild: PHOTOCREO Michal Bednarek/Shutterstock.com)

Lesezeit: 13 Min.
Von
  • Silke Hahn
Inhaltsverzeichnis

Italien hat ChatGPT sperren lassen, das Policy Center in Washington fordert die US-Verbraucherschutzbehörde zu Ermittlungen gegen OpenAI auf, und ein offener Brief sorgt für Wirbel. In dem vom Future of Life Institute (FLI) veröffentlichten Manifest fordern über 10.000 teils prominente Unterzeichnerinnen und Unterzeichner eine halbjährige Zwangspause für die Arbeit an KI-Modellen, die "mächtiger als GPT-4" seien. Das Institut sowie dessen Geldgeber Elon Musk und Jaan Tallinn, die den Aufruf unterstützen, gelten nicht allen als Garant für Seriosität. Die aufgeworfenen Fragen treffen dennoch einen Nerv – und spalten die Forschungsgemeinschaft.

Des Populismus unverdächtige Forscher wie der kanadische Informatiker Yoshua Bengio, der grundlegende Arbeit für Deep Learning geleistet hat und gemeinsam mit Geoffrey Hinton und Yann LeCun den Turing-Preis 2018 gewann, haben sich dem Aufruf angeschlossen. Andere potenzielle Unterstützer und Unterstützerinnen der Anliegen verzichten teils öffentlichkeitswirksam darauf und weisen auf Schwachstellen des Aufrufs hin. Zurzeit werden vor allem die denkbaren Risiken und Gefahren Künstlicher Intelligenz medial thematisiert und Schreckensszenarien entworfen – teils mit Daten untermauert, teils (Science) Fiction.

Zum KI-Einsatz kursieren widersprüchliche Zukunftsprojektionen: Diskriminierung durch algorithmische Entscheidungen, Verlust von Arbeitsplätzen und mögliche Desinformationsflut bis hin zur möglichen Auslöschung der Menschheit durch entgleiste KI als negativer Ausblick – zugleich Hoffnung auf neue Berufe, Linderung des Fachkräftemangels, erleichterter Zugang zu Bildung, medizinischer Fortschritt und überlebenswichtige Durchbrüche in der Forschung, etwa gegen die Auswirkungen des Klimawandels. Die Fachwelt spricht von Chancen und Risiken durch moderne KI nicht mit einer Stimme.

Die Verunsicherung ist greifbar – so forderte der KI-Alignment-Forscher Eliezer Yudkowsky in einem Kommentar für das Time-Magazine die präventive Zerstörung von KI-Rechenzentren und starke Kontrolle für die Verwendung KI-tauglicher Hardware – Verbote als präventives Containment. Andere fordern teils eine Beschleunigung der Forschung, ebenfalls mit dem Argument der KI-Sicherheit. Gemäßigte Stimmen ordnen im Folgenden den Stand der KI-Entwicklung sachlich ein.

Große Modelle sind für Kristian Kersting zunächst faszinierend. Sie könnten uns helfen, uns selbst zu entschlüsseln oder besser zu verstehen. Kersting ist Professor für Machine Learning und KI an der TU Darmstadt und Co-Direktor des von ihm mitgegründeten KI-Forschungszentrums hessian.AI – er geht davon aus, dass künftige größere Versionen von Modellen wie GPT-4 uns mit zusätzlichen Fähigkeiten überraschen könnten, "die noch vor wenigen Jahren wie Science Fiction erschienen wären."

Der praktische Nutzen und die Assistenz durch fähige KI-Anwendung, die Menschen weiter befähigen, seien groß. Es gebe kaum einen Lebensbereich, der nicht von KI positiv beeinflusst werden könnte, indem sie uns Routineaufgaben erleichtert. Neue Berufe würden entstehen. So können aktuelle KI-Systeme beim Schreiben von Liedtexten, Zeitungsartikeln und Computerprogrammen unterstützen, geschriebene Texte mit Bildern illustrieren, die Produktivität erhöhen, medizinische Diagnosen verbessern, Kreislaufwirtschaft und Klimaschutz stärken, betont Kersting die positiven Seiten.

Derzeitige KI-Systeme hätten allerdings Schwierigkeiten, sich an neue Situationen anzupassen – eine Fähigkeit, die Stephen Hawking als Intelligenz ansah. In ungewöhnlichen Kontexten seien die Maschinen nicht verlässlich und daher seien sie auf Aufgaben beschränkt, für die Menschen sie trainiert haben. Das liege etwa daran, dass aktuelle Sprachmodelle nichts über Ursache und Wirkung wissen: Ist "a" die Ursache von "b"? Was würde passieren, wenn man dies oder jenes tut? KI-Forscher beschäftigen sich zunehmend mit kausalen und logischen Schlussfolgerungen, um Gesetze intelligenten Verhaltens bei Mensch und Maschine zu finden.

Es sei wichtig, nicht nur die Technologien zu verstehen, sondern auch ihre Wechselwirkungen mit den Personen, die sie verwenden – dieser Einschätzung des Deutschen Ethikrats schließt Kersting sich an. Daten führen nicht direkt zur Wahrheit, da sie mit Annahmen und Theorien aufgeladen seien. Regulierung wie der geplante AI Act sei ein natürlicher und notwendiger Schritt, den man aus Medizin, Physik und Chemie kenne. Dass die EU hier eine Vorreiterrolle einnimmt, könne von Vorteil sein.

Sandra Wachter, Professorin für "Technology and Regulation" in Oxford, steht dem Brief gespalten gegenüber. Positiv sieht sie die Aufmerksamkeit, die das Schreiben der Frage nach verantwortungsvollem Einsatz neuer Technologien verschafft. Einige der genannten Gründe für die geforderte Entwicklungspause großer KI-Modelle leuchten ihr wenig ein. Was algorithmische Automatisierung für die Arbeitswelt bedeutet, werde seit Jahren diskutiert. Ein halbes Jahr würde nicht viel bringen, meint die Regulierungsfachfrau.

Hinrich Schütze, der an der Ludwig-Maximilians-Universität in München (LMU) den Lehrstuhl für Computerlinguistik innehat und das Zentrum für Informations und Sprachverarbeitung leitet, hält ein Moratorium für Aktionismus. China werde sich nicht daran halten und die Forschung bei großen Firmen würde ungezügelt weitergehen. Aber Schütze wäre auch aus grundsätzlicheren Bedenken gegen eine Forschungspause: "Wir müssen so schnell wie möglich die Large Language Models wissenschaftlichverstehen, um zu lernen, wie wir sie zum Wohl der Menschheit einsetzen. Wir können die Modelle aber nicht optimal erforschen, wenn ihre Weiterentwicklung willkürlich hinausgeschoben wird."

Eine sechsmonatige Pause zum jetzigen Zeitpunkt bevorteile Firmen, die bereits über mächtige KI-Systeme verfügen, meint Kristian Kersting. Das Problem sei nicht, dass KI-Systeme aktuell oder in naher Zukunft zu intelligent seien – "sie sind eher zu dumm." Auch Schütze hält Eile für geboten, sonst werde diese Technologie von "Bad Actors" beherrscht, die sich ethischen Grundprinzipien und demokratischen Werten nicht verpflichtet fühlen. Dass KI-Systeme Diktaturen helfen könnten und Falschnachrichten verbreiten könnten, ist auch Kersting zufolge ein reales Problem.

Den offenen Brief sieht er als geprägt von Angstmacherei und hält die Diskussion über eine "Konkurrenzintelligenz" zwischen Mensch und Maschine für hypothetisch. Konstruktive Ideen wie ein Wasserzeichen für KI-generierte Inhalte und das Dokumentieren der verwendeten Daten unterstützt er. Um Vorteile von KI zu nutzen, seien mögliche Nachteile und Kosten abzuwägen und zu berücksichtigen.

Responsible AI bei Microsoft

Entgegen des öffentlichen Wirbels um die berichtete Entlassung eines Ethik-Teams beschäftigt Microsoft nach Angaben eines in dem Bereich bei Microsoft Deutschland Tätigen eigens Mitarbeiter für Socio Tech, die neue Technologie auf Herz und Nieren prüfen, bevor Dienste in das eigene Plattformangebot integriert werden – neben Technikprofis auch Soziologen.

Für das Vorgehen gibt es im Konzern interne Richtlinien und seit 2017 ein verbindliches Framework (RAISE), das die Ingenieure und Technikerinnen zum Arbeiten nach Prinzipien der Fairness und Transparenz verpflichtet, bevor Projekte an die Kunden gelangen. Konkret nannte der Microsoft-Mitarbeiter das Office of Responsible AI (ORA), den AETHER-Ausschuss (AI and Ethics in Engineering and Research), der die Geschäftsführung zu Responsible AI berät, sowie die Initiative RAISE (Responsible AI Strategy in Engineering), wohinter ein übergreifend zuständiges Entwicklungsteam für das Implementieren von Regeln und Prozessen verantwortungsvoller KI stehe. Auch ein Impact Assessment finde bei Microsoft statt und verschiedene Angriffsszenarien würden durchgespielt, um die Anwendungen der Plattform sicher zu machen.

Die Auskünfte stammen aus einem Hintergrundgespräch der heise-Developer-Redaktion mit Thomas Langkabel von Microsoft Germany im März 2023, weiterführende Informationen finden sich auf den Microsoft-Webseiten.

Zu OpenAI, Microsoft und Google, die als Wirtschaftsunternehmen primär Geld verdienen wollen, hätte Hinrich Schütze dabei mehr Vertrauen als zu undemokratischen Regimen und kriminellen Organisationen. OpenAIs Modelle seien so erfolgreich, weil sie über ausgeklügelte "Guardrails" verfügen, die Rassismus, medizinische Auskünfte oder politische Aussagen stark einschränken. Fiktionale Themen wie Roboterbewusstsein, die wohl erst in 100 oder 200 Jahren relevant sein werden, verstellen den Blick für Probleme der Gegenwart, die hier und jetzt zu lösen sind.

Diese Ablenkung kritisiert Sandra Wachter. Das akute Problem von Desinformation durch bereits vorhandene KI-Modelle thematisiert der Brief nicht, auch zum Umgang mit Bias bei KI schweige er sich aus. Im offenen Brief fehlt der Hinweis auf bereits bestehende Initiativen, die sich mit ethischen und politischen Fragen zu KI und Gesellschaft befassen. Den Brief haben die hier zu Wort gekommenen Forscher und die Forscherin nicht unterschrieben. Einige haben sich stattdessen der Forderung des Open-Source-KI-Vereins LAION nach einem CERN für quelloffene großdimensionierte KI-Forschung angeschlossen.

LAION macht sich stark für öffentliche Infrastruktur zum Trainieren zugänglicher großer KI-Modelle auf dem neuesten Stand der Technik, damit unabhängige Fachleute und die Gesellschaft ungefilterten Zugang zu dieser Grundlagentechnologie haben und unabhängige Alternativen zu GPT-4 entstehen – für die Menschheit wäre es riskant, wenn die Weltbevölkerung über eine einzige API von undurchsichtigen kommerziellen Angeboten einzelner Konzerne mit Monopolstellung abhinge, die die Beschaffenheit und das Verhalten der Modelle nach Belieben und ohne Wissen oder Mitsprache der Kunden ändern können.

LAION: Offene KI statt Blackbox

(Bild: Photobank gallery / Shutterstock.com)

Das Large-Scale Artificial Intelligence Network (LAION) ist ein Verein, der sich für Open-Source-KI-Modelle, transparente Forschung und offen zugängliche Datensätze stark macht. Die gemeinnützige Organisation mit Sitz in Deutschland stellt Datensätze, Werkzeuge und Modelle für die Forschung zum maschinellen Lernen bereit und vertritt eine Community von etwa 20.000 KI-Forscherinnen und -Forschern weltweit. Heute gängige große KI-Modelle etwa für die Text-zu-Bild-Synthese wie Stable Diffusion und Google Imagen beruhen zum großen Teil auf den Datensätzen von LAION.

Ein CERN für öffentliche KI-Forschung statt privater API-Monopole

Am 29. März 2023 hat LAION eine Petition veröffentlicht, die als Gegenstandpunkt zum Open Letter des Future of Life Institute gelesen werden kann. Die Forderung nach einem gemeinsamen CERN für Open-Source-Large-Scale-KI zugunsten von Forschung und Sicherheit richtet sich an die EU, USA, Großbritannien, Kanada und Australien. In den kommenden zwei Monaten sammelt LAION Unterschriften für das Anliegen, KI-Forschung zu demokratisieren und einen internationalen, öffentlich finanzierten Supercomputer mit 100.000 schnellen GPUs für das Training von Foundation Models zu errichten. Dabei geht es nach Aussagen des Vereins um das Ermöglichen technologischer Unabhängigkeit und um kritische KI-Sicherheitsforschung.

Zu den geschlossenen KI-Modellen großer kommerzieller Konzerne wie GPT-4 und ChatGPT von Microsoft-OpenAI liegen keine technischen Informationen vor, sodass unabhängige Sicherheitsforscher nicht mit ihnen arbeiten können. Angesichts existenzieller Risiken durch KI bestehe dringender Bedarf an Alternativen. Für die neue Grundlagentechnik werden massenhaft öffentliche Daten abgeschöpft und im Falle amerikanischer Daten- und Plattformkonzerne gewinnorientiert verarbeitet. Die Öffentlichkeit habe ein Recht auf gemeinnützigen Fortschritt, Zugänglichkeit und Teilhabe. Eine ausführliche Darstellung der LAION-Position mit Pro und Contra großer KI-Sprachmodell-Projekte findet sich bei Open Petition. Mehr über den Verein und seine Hintergründe steht in einem Interview mit dem Informatiker Christoph Schuhmann, einem der sieben Gründer von LAION.

Die jüngsten Durchbrüche aus den USA und China gelten als direkte Folge riesiger öffentlicher und privater Investitionen in KI, wie die jüngste Investitionsrunde mit 20 Milliarden US-Dollar in OpenAI vor Augen führt. Selbst deutsche Leuchtturmprojekte wie das ELLIS-Institut blieben hier um Größenordnungen zurück. "Wenn wir uns nicht in eine allumfassende Abhängigkeit begeben wollen, müssen wir massiv in KI investieren – jetzt", fordert Frank Hutter, Leiter des Machine Learning Labs der Albert-Ludwigs-Universität Freiburg. Er verweist auf disruptive Folgen, die mächtige Sprachmodelle der "Tech-Riesen" wie OpenAI, Google und Meta haben werden – "im Positiven wie im Negativen."

Über alle Branchen hinweg könnten knapp die Hälfte aller heute bestehenden Arbeitsplätze der Rationalisierung durch KI-Einsatz zum Opfer fallen, geht aus aktuellen Studien hervor. In einigen Branchen könnten 80 bis 90 Prozent der Jobs wegfallen, und branchenübergreifend stünden zu viele Jobs "im Feuer", als dass die Gesellschaft es klaglos hinnehmen könne, mahnt der Geschäftsführer einer großen Bonner Weiterbildungseinrichtung (BWA), die mit Arbeitsämtern und Gewerkschaften zusammenarbeitet. Algorithmen werden Sachbearbeiter und die meisten Routinearbeiten am Computer ersetzen, ist sich BWA-Geschäftsführer Harald Müller sicher. Die bevorstehenden Umwälzungen dürften historische Dimensionen erreichen und die Bewältigung werde mit schweren Zeiten einhergehen, wie die Bonner Wirtschaftsakademie im Blogeintrag auf ihrer Website betont.

Solche Sorgen sind dem Technikphilosophen Armin Grunwald vertraut, denn seit den 1970er Jahren treten apokalyptische Befürchtungen ebenso wie überhöhte Erwartungen in wiederkehrenden Wellen auf. Der aktuellen Aufregung um ChatGPT begegnet er daher gelassen: Sie sei nur der jüngste Ausdruck des Phänomens. Kontrollverlust, Machtübernahme durch Algorithmen, vielleicht gar die Weltherrschaft der Maschinen, der Zusammenbruch des Arbeitsmarktes, Manipulation, Unterdrückung und Ausbeutung der Menschen durch technische Systeme sind wiederkehrende Elemente der Geschichten, die sich stets ähneln.

Grunwald ist Professor für Technikfolgenabschätzung und Systemanalyse am Karlsruher Institut für Technologie (KIT) und seit Kurzem Mitglied des Deutschen Ethikrats. Je nach Perspektive sei es faszinierend oder erschreckend, wie gut heutige KI-Technik menschliche Fähigkeiten simulieren kann. ChatGPT liege ganz auf der Linie der Zivilisationsentwicklung seit der Industriellen Revolution. Dies wäre laut Grunwald auch noch der Fall, wenn solche Systeme bessere Texte als Menschen schreiben: "Es wäre kein Zivilisationsbruch, denn Technik wird dazu entwickelt, in bestimmten Hinsichten besser als Menschen zu sein, sonst bräuchten wir sie nicht. Dass Computerprogramme seit fast 30 Jahren besser Schach spielen können als Menschen, war ein Schritt auf diesem Weg, aber keine Katastrophe."

Kritisch sieht Grunwald die Macht- und Besitzstrukturen: Ein unverhältnismäßig großer Teil der Forschung zur Digitalisierung und KI konzentriere sich bei privat geführten Unternehmen, vor allem in großen Datenkonzernen aus den USA und aus China. Diese Einsicht belegt auch der soeben veröffentlichte AI Index Report 2023 vom Stanford Institute for Human-Centered AI (Stanford HAI), der vor globalen Verwerfungen durch die Konzentration von Forschung und Kapital in den USA und in China warnt. Die Gesellschafts- und Zukunftsvorstellungen weniger Manager und Multimilliardäre in Monopolkonzernen prägen durch ihre Entscheidungen unsere Zukunft ohne öffentliche Debatte, Mitsprachrecht und Legitimierung.

Der eigentliche Kontrollverlust, vor dem wir uns schützen müssen, sei nicht der im offenen Brief genannte Verlust von Kontrolle an Algorithmen, so Grunwald – das wäre eine sinnlose Sorge, da Algorithmen und Rechenprogramme weder Intentionen noch Machtinstinkt besitzen. "Ihre Macher jedoch haben diese reichlich", warnt der Technikphilosoph. Das Problem aktueller KI-Entwicklung sei nicht der drohende Machtverlust an Algorithmen, sondern die intransparente Machtkonzentration über die künftige Gesellschaft in den Händen weniger. Grunwald gibt zu bedenken: "Selbstverständlich sind zur zukünftigen Entwicklung der KI vorausschauende Überlegungen, Folgenforschung und Ethik gefragt. Aber diese bleiben zahnlos, wenn sich an der genannten Machtkonstellation nichts ändert."

Der frühere Vorsitzende des Deutschen Ethikrats Peter Dabrock, Professor für Systematische Theologie und Ethik, nimmt den Brief gelassen – wortwörtlich könne man ihn nicht ernst nehmen. Niemand sei so naiv, anzunehmen, dass auf einen Appell hin alle Programmierer großer Sprachmodelle für sechs Monate ihre Laptops zuklappen und Politiker aus den USA, Europa, China und Russland sich an einen Tisch setzten, um verbindliche Regeln vom Völker- bis zum nationalen Recht für die kommenden Jahre zu beschließen. Dabrock bezeichnet die Moratoriums-Forderung als "performativen Sprachakt", den er vollends unterstützt.

"Fundamentale Kulturtechniken wie Lesen und Schreiben sowie primäre Informationsverarbeitung werden sich in Kürze radikal verändern", und eine "maliziöse Flut" schwer überprüfbarer Falschinformationen und Halbwahrheiten via Schrift, Bild, Video und Ton werde unsere Konzepte von Wahrheit und Wirklichkeit unter Druck setzen. Wissenschaft und Demokratie drohen schwerste Krisen, meint Dabrock, und die Selbstbestimmung müsse umgehend gestärkt werden, um den gesellschaftlichen Zusammenhalt zu wahren: "Die Modelle stellen einen Epochenbruch dar und wir [müssen] umgehend lernen, diese große Zeitenwende kritisch und konstruktiv zu gestalten."

Zur aktuellen KI-Entwicklung hat der Deutsche Ethikrat am 20. März 2023 Stellung bezogen. Die rund 300-seitige Stellungnahme ist öffentlich einsehbar: "Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz" (PDF).

(sih)