ChatGPT & Co.: Arbeitspause für mächtige Sprachmodelle – Streit unter Experten

Internationale Technikexperten fordern eine Arbeitspause an mächtigen Sprachmodellen. Das entzweit auch die deutsche Forschergemeinde, viele sind skeptisch.

In Pocket speichern vorlesen Druckansicht 55 Kommentare lesen
Gpt4,Improved,Chatbot,Illustrations.,Artificial,Intelligence,Chatbot.chat,Gpt,4,Illustration

(Bild: Ebru-Omer/Shutterstock.com)

Lesezeit: 6 Min.
Inhaltsverzeichnis

Deutsche Wissenschaftler reagieren in einer Umfrage des Science Media Center (SMC) verhalten auf den Appell des Future of Life Institute für ein sechsmonatiges Moratorium beim Trainieren von Systemen mit Künstlicher Intelligenz (KI), die "mächtiger" als das aufsehenerregende Sprachmodell GPT-4 von OpenAI sind. Eine solche Pause "dient letztlich genau denjenigen Institutionen, deren Tätigkeit eigentlich problematisiert werden soll", befürchtet Thilo Hagendorff, Leiter des Interchange Forum for Reflecting on Intelligent Systems der Universität Stuttgart. Sie suggeriere "völlig übertriebene Fähigkeiten" der Technik.

"Dadurch befeuert das Moratorium Missverständnisse und falsche Wahrnehmungen über KI", meint Hagendorff. Der Aufruf lenke von faktischen Problemen eher ab. Gleichzeitig sei ein Aufschub, der Gefahren durch KI abwenden wolle, "selbst ein Risiko". Niemand könne wirklich beurteilen, ob es vorteilhafter sei, Sprachmodelle vorerst nicht zu verbessern, als weiter an ihnen zu arbeiten. Gefahren durch intelligentere KI-Systeme wie Diskriminierung, bösartige Nutzungsabsichten oder das Verbreiten von Desinformation seien zwar präsent. Aber es sei auch ein heißes Eisen, erst verzögert diese Technik zu besitzen.

"Wenn eine Anfrage an ein Sprachmodell bessere Antworten liefern kann als menschliche Experten, dann macht dies die gesamte Wissensarbeit produktiver", argumentiert der Experte. "Im Extremfall kann es sogar Leben retten." Der Einsatz solcher Systeme in der Medizin etwa sei eine große Chance, um die Versorgung zu verbessern und Leiden zu reduzieren. Hagendorff betont: "Forschung in diesen Bereichen ist extrem wichtig."

Eine Pause böte aber eine Gelegenheit für die Politik, bei der Regulierung aufzuholen und möglicherweise sogar proaktiv tätig zu werden, weiß der Wissenschaftler. Technische Innovationen seien langsameren sozialen Systemen wie auch dem Recht immer voraus. Zugleich kritisiert er die Tendenz bei OpenAI, keine technischen Details zu aktuellen Entwicklungen mehr zu veröffentlichen. Die Begleitpublikation zu GPT-4 enthalte nicht einmal Angaben zu den Trainingsdaten. Die Ironie daran sei, dass der Erfolg von GPT-Modellen auf sogenannten Transformern beruht, einer Architektur für künstliche neuronale Netze, die Google-Forscher 2017 in einem frei zugänglichen Fachaufsatz beschrieben hätten.

"Techniken müssen nach menschlichen Wertvorstellungen gestaltet und unter Umständen auch verboten werden", unterstreicht Jessica Heesen, Leiterin des Forschungsschwerpunkts Medienethik und Informationstechnik an der Uni Tübingen. Ein "Witz" an dem aktuell diskutierten Aufruf sei aber, "dass hier Elon Musk unterschrieben hat, der sich als Unternehmer durch besonders unmoralisches Verhalten hervorgetan hat". Dies zeige auch, dass technische Innovationen "nicht durch individuelle Anstrengungen oder kurze Denkpausen gesellschaftsverträglich gestaltet werden können". Bedeutende und potenziell riskante Technikentwicklung müsse von Beginn an ethische Kriterien berücksichtigen sowie transparent und partizipativ angelegt sein.

Bei KI-Sprachmodellen sieht Heesen den Geist aber "schon aus der Flasche". Umso wichtiger sei es nun, dass die geplante KI-Verordnung der EU in diesem Bereich Risiken minimiere und die Anwendungen verbessere. Um die Wahrheit, Wahrhaftigkeit und den Zweck von Kommunikation beurteilen zu können, sei zumindest "eine Kennzeichnungspflicht für durch KI hergestellte Texte, Bilder und Videos" unerlässlich.

Sehr viel ändere sich durch die vorgesehenen EU-Regeln nicht für KI-Systeme wie GPT-4, verweist Silja Vöneky, Freiburger Professorin für Rechtsethik, auf die Grenzen meist statischer Regulierung. Die Risiken einschlägiger generativer KI würden bislang nicht abgedeckt. Es reiche nicht aus, wenn Chatbots sich Nutzern gegenüber als solche zu erkennen geben müssten. Der Weg zu einer allgemeinen, "starken KI", die "besser als wir Menschen wäre", werde nicht behandelt. Unternehmen wie OpenAI forschten aber gerade daran. Sie habe daher den offenen Brief unterschrieben: Ihre Sorge sei, dass die Gesellschaft mit der Regulierung nicht hinterherkomme. Forschung in der EU wäre nicht betroffen, da dort an derlei mächtigen Systemen gar nicht gearbeitet werde. Voraussetzung für Forschungsverbote bei besonders hohen Risiken etwa für die Demokratie wäre "eine breite gesellschaftliche Debatte".

Ähnlich sieht die Sache Ute Schmid, Leiterin der Arbeitsgruppe Kognitive Systeme an der Uni Bamberg, die den Appell ebenfalls unterzeichnete. Sie glaubt zwar nicht, dass ein halbes Jahr viel bewirken könnte. Es sei aber unabdingbar, "auf die Risiken beim Einsatz großer Sprachmodelle und anderer aktueller KI-Technologien hinzuweisen und zu versuchen, in einen breiten demokratischen Diskurs zu treten". Große Gefahren seien das Problem der unkontrollierbaren Überflutung mit Propaganda und Unwahrheiten, der Wegfall von Arbeitsplätzen und Kontrollverluste.

Auch der Energieverbrauch bei Training und Betrieb der Technik wird Schmid zufolge zu wenig beleuchtet: "Die Ressourcen, um Modelle in der Größe von GPT-3 und GPT-4 zu entwickeln und zu betreiben, können nur wenige Organisationen aufbringen." Bei vielen kleineren Ansätzen müsse man fragen, "was das Verhältnis von Aufwand und Nutzen beziehungsweise Erkenntnisgewinn ist". Ein weiteres Problem sei "die große Menge an schlecht bezahlter menschlicher Arbeit, die in das Training solcher KI-Systeme einfließt".

Trotz aller Einwände "finde ich die Forderung nach einem europäischen Sprachmodell absolut sinnvoll", stellt Schmid klar. "Ansonsten verlieren wir hier den Anschluss an eine relevante technologische Entwicklung. Außerdem vergeben wir uns viele Möglichkeiten, wenn wir Sprachmodelle nur zu den Konditionen der Anbietenden nutzen." Unter anderem müsse Europa so "über die bei GPT-3 beziehungsweise GPT-4 eingesetzten Content-Filter das US-amerikanische Wertesystem" mit einkaufen.

Schon aus praktischen Gründen hält Florian Gallwitz, Nürnberger Professor für Medieninformatik, ein Moratorium für unrealistisch. Da die technischen Details und Möglichkeiten von GPT-4 nicht öffentlich bekannt seien, könnten Konkurrenten von OpenAI ohnehin ungebremst weiterarbeiten: Google und Meta hätten aktuell offenbar einen deutlichen technischen Rückstand. Ferner sei es unwahrscheinlich, dass etwa chinesische Firmen sich an eine solche Pause hielten.

"Natürlich müssen Produkte getestet, zertifiziert und reguliert werden", macht Katharina Morik, Gründungsdirektorin des Lamarr Institut für Maschinelles Lernen und Künstliche Intelligenz an der TU Dortmund, deutlich. Auf Basis der Forschungen zu Fairness und zur Verankerung in der Realität von KI-Systemen sollten in Europa Tests und Kennzeichnungen entwickelt werden, "die dann auch überprüfbar sind. Meiner Meinung nach erreichen wir das Ziel, das hinter dem Memorandum steht, so besser." Insgesamt sei mit dem Einsatz generativer KI ein enormer Produktivitätssprung zu erwarten.

(bme)