Wie gefährlich ist KI? | Offener Brief von KI-Gurus

Die einen sagen, KI-Systeme wie ChatGPT könnten die Menschheit auslöschen. Andere halten das für ein cleveres Ablenkungsmanöver. c't 3003 hat nachgeforscht.

In Pocket speichern vorlesen Druckansicht 44 Kommentare lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 11 Min.
Von
  • Jan-Keno Janssen

Wollen KIs uns an den Kragen? Offenbar denken das gerade im Silicon Valley viele, die im KI- und Tech-Umfeld arbeiten. In einem offenen Brief fordern sie einen halbjährigen Forschungsstopp. Kritiker sagen nun aber, dass das alles Quatsch ist und vor allem ein Ablenkungsmanöver. Was ist dran an den Vorwürfen?

(Hinweis: Es handelt sich hier um einen Bonusinhalt für Menschen, die das Video oben nicht schauen können oder wollen. Die Informationen auf der Bildspur gibt das Transkript nicht wieder.)

Guckt mal hier, das ist ein offener Brief, den tausende Leute unterschrieben haben, die mit künstlicher Intelligenz oder allgemein mit Tech arbeiten. Unter anderem Apple-Mitgründer Steve Wozniak, Elon Musk und Emad Mustaque, einer der Macher vom Bildgenerierer Stable Diffusion.

Ja, und da steht drin, dass das Risiko besteht, dass eine fortgeschrittene künstliche Intelligenz die Menschheit ersetzen wird. Und dass wir womöglich die Kontrolle über unsere Zivilisation verlieren. Okay…

Und um das zu verhindern, fordern die Unterzeichneten, dass erstmal ein halbes Jahr Pause gemacht wird mit KI-Forschung. Wiederum andere Leute aus der Forschungs-Community sagen, dass das mit der Welteroberungs-KI totaler Hype-Blödsinn ist und dass wir uns mal besser um aktuelle KI-Probleme kümmern sollten, wie zum Beispiel, dass niemand weiß, mit welchem Material genau GPT-4 trainiert worden ist und ob das eigentlich okay ist, dass da in den Trainingsdaten, sagen wir mal, c‘t-Artikel drin sind. Also mich haben die jedenfalls nicht gefragt.

Und wie wir damit umgehen, dass KI-Systeme jetzt schon Arbeitsplätze vernichten. Andere Leute sagen dagegen, wir steuern rosigen Zeiten entgegen. Niemand muss mehr arbeiten. Das machen die Maschinen bald für uns.

Also wie ist das denn jetzt? Sind ChatGPT, Midjourney und Bing jetzt unsere Freunde oder wollen die Datenhack aus uns machen? Wir haben uns das mal genauer angeschaut. Bleibt dran.

Liebe Hackerinnen, liebe Internet-Surfer, herzlich willkommen hier bei...

Also, dieser offene Brief hier, der hat in den letzten Tagen ja ganz schön Wellen geschlagen. Die halbe Tech-Welt macht sich Sorgen um die Zukunft der Menschheit wegen der KI-Entwicklung. Das klingt ja gar nicht gut.

Konkret fordern die Unterzeichnenden, dass alle Entwicklungen von KI-Tools, die mächtiger sind als GPT-4, für sechs Monate auf Pause gelegt werden und dass man sich in der Zeit mal überlegen soll, wie man mit dieser technischen Entwicklung überhaupt umgehen soll. Notfalls soll auch die Politik regulieren.

Der Brief malt heftigste Schreckensszenarien, also komplett mit Maschinen, die uns ersetzen und sogar von einem Verlust unserer Zivilisation ist da die Rede. Für diese spezielle Denkschule gibt es schon einen Namen, nämlich „x-risk“, weil es hier um existenzielles Risiko geht. Kurz gesagt gehen die x-risk-Verfechter davon aus, dass irgendwann der Punkt erreicht ist, an dem sich intelligente Systeme selbst verbessern können und es dann so eine Intelligenz-Explosion gibt, weil Maschinen eben deutlich schneller arbeiten können als Menschen.

Also von der Erfindung des Rads bis zum ersten Computer hat es halt mindestens 4000 Jahre gedauert und die potenzielle KI-Intelligenz-Explosion dagegen dauert womöglich nur ein paar Taktzyklen. Und dann ja, haben wir die Singularität, also quasi den Punkt, an dem die Menschheit die Intelligenz der Maschinen nicht mehr einholen kann.

Aber die große Frage ist auch, muss eine superintelligente KI zwingend gefährlich sein? Muss die eine Agenda haben und einen Selbsterhaltungstrieb? Kann das womöglich sein, dass diese KI-Untergangsverfechter womöglich ihre eigenen Alpha-männlichen-Egos auf Maschinen projizieren? Obwohl Maschinen ja gar kein Ego haben und auch gar kein Testosteron und eigentlich rational handeln sollten.

Naja, bei solchen offenen Briefen muss man sich neben dem Inhalt sowieso auch immer genau anschauen: Wer unterschreibt das eigentlich? Und dass Elon Musk als prominentes Zugpferd ganz vorne bei den Unterzeichnern steht, habe ich ja gerade schon erzählt.

Und eben dieser Elon Musk hat OpenAI, die Firma hinter ChatGPT, 2015 sogar mitgegründet. 2018 wollte er sie ganz übernehmen, das hat aber nicht geklappt und dann hat er die Firma komplett verlassen. Also gut möglich, dass Musk, der ja für sein rationales Handeln bekannt ist, da auch einfach ein bisschen mit verletztem Stolz zu kämpfen hat.

Und auch ein weiterer Unterzeichner, der Historiker Yaval Noah Harari, der hat ja in seinen millionenfach verkauften Büchern schon öfter so ein bisschen Weltuntergang prophezeit. Das kann man vielleicht sogar als seinen Markenkern bezeichnen. Also er verdient Geld mit solchen Doomsday-Gedanken. Also er profitiert sozusagen wirtschaftlich direkt von dem offenen Brief. Und das ist auch noch eine These, die im Raum steht, dass dieses Sprechen über die Gefahr einer super schlauen und supergefährlichen KI letztendlich den KI-Hype nicht kleiner macht, sondern im Gegenteil größer.

Schließlich ist das ja vermutlich für die meisten Leute ziemlich aufregend, mit so einer allmächtigen KI arbeiten zu können. So "Woo, ChatGPT löst meine Matheaufgaben", könnte aber auch die ganze Welt übernehmen. Also ich kann das total verstehen, ich finde das sowieso technisch super faszinierend und wenn da dann auch noch so KI-Science-Fiction drinsteckt.

Klar, da will man mit rumspielen. Das ist ein Produkt, was ich haben will. Klar, Sam Altman, der Chef von OpenAI, also die, die ChatGPT und GPT-4 machen, hat den Brief zwar nicht unterschrieben, spricht aber auch ständig davon, wie gefährlich seine Technik ist. Das könnte man im ersten Moment für kontraproduktiv halten, ist letztendlich, aber ziemlich schlaues Marketing, weil man natürlich auch mehr Aufmerksamkeit bekommt, wenn man behauptet, man hätte ein potenzielles Skynet erfunden, als wenn man sagt, oh, ich habe da so ein System erfunden, was Texteingaben ergänzt.

Ich will aber jetzt auch nicht behaupten, dass es allen Unterzeichnenden gar nicht um die Sache selbst geht. Es gibt da sicherlich Leute, die sich ganz ernsthaft Sorgen machen. Aber ich finde, man muss auch unterscheiden, um welche Gefahren es da überhaupt konkret geht. Also diese existenzielle Gefahr mit der KI, die die Welt übernimmt, ja, da sind wir vermutlich noch nicht.

In großen Sprachmodellen wie GPT-4 blitzt womöglich manchmal sowas wie AGI, also Artificial General Intelligence, auf. Also künstliche allgemeine Intelligenz, sprich die gleichen intellektuellen Fähigkeiten wie ein Mensch. Es gibt aber auch eine, ich nenne sie mal "Kill den Hype"-Fraktion, die sagt, dass das alles null mit Intelligenz zu tun hat, sondern nur mit stochastischen Papageien, die statistisch ausrechnen, welches Wort als Nächstes kommt.

Zum Beispiel die Computerlinguistin Emily Bender. Sie ist eine der Wissenschaftlerinnen, die den Begriff "stochastischer Papagei" überhaupt erst erfunden haben. Und ja, die Funktionsweise von solchen großen Sprachmodellen ist tatsächlich so.

Nur gibt es halt auch immer wieder Stimmen, die sagen, dass die Systeme Fähigkeiten an den Tag legen, die sie eigentlich aus dem Trainingsmaterial nicht hätten entnehmen können. Zum Beispiel, dass sie sagen können, wie man ein Einhorn zeichnet, obwohl die Software nie irgendein Bild gesehen hat. Also überhaupt irgendein Bild, geschweige denn vom Einhorn.

Ist das jetzt Rosinenpickerei? Ist das wirkliche Intelligenz? Man muss auch ganz klar sagen, die Forschung versteht einfach vieles auch noch nicht, was so große Sprachmodelle intern so treiben. In der Beschreibung habe ich übrigens mehrere Quellen und Paper zu dem Thema verlinkt. Aber eigentlich ist es sowieso müßig, darüber zu diskutieren, ob solche Sprachmodelle nun doof sind oder schlau.

Wichtig ist nur, Produkte wie ChatGPT, Midjourney und Stable Diffusion werden heute schon von Millionen Leuten eingesetzt und verändern also heute schon die Welt. Statt Illustratoren zu bezahlen, lassen sich zum Beispiel Unternehmen ihre Grafiken mit Software generieren oder Coder lassen Dinge in Sekundenschnelle von ChatGPT programmieren, sonst Stunden oder Tage dauern würde.

Das heißt, KI spart Zeit und dadurch gehen womöglich Arbeitsplätze verloren. OpenAI hat dazu übrigens auch eine Studie veröffentlicht, zusammen mit der University of Pennsylvania. Und die Studie soll zeigen, wie viele Arbeitsplätze durch Large Language Models in Gefahr sind. Das Ergebnis, bei 19 % der Arbeitsplätze könnten mindestens die Hälfte der Aufgaben von einer KI übernommen werden.

Aber man kann das natürlich auch alles viel optimistischer sehen. Also künstliche Intelligenz sorgt dafür, dass Menschen weniger tun müssen, um die gleiche Arbeit zu verrichten. Also mehr Wertschöpfung aus weniger Arbeit. Und das könnte ja mehr Wohlstand für alle bedeuten. Ja, könnte, ne?

Aber schon die Digitalisierung in den letzten 30 Jahren hat ja für krasse Effizienzsteigerungen gesorgt, aber profitiert haben davon vor allem die, die sowieso schon mehr Kapital hatten, als diejenigen, die die eigentliche Arbeit machen.

Das ist jetzt keine linke Propaganda oder so, sondern das lässt sich ganz objektiv nachweisen. Hier, das ist der Gini-Index. 0 bedeutet komplette Gleichverteilung, 100 komplette Ungleichverteilung. Der ist in den letzten Jahrzehnten einfach immer mehr gestiegen. Hier seht ihr die Graphen für Deutschland und für die USA.

Statt uns also ausschließlich mit irgendwelchen "Die KIs werden uns alle töten"-Zukunftsszenarien auseinanderzusetzen, sollten wir besser mal aufs Heute gucken. Das ist übrigens auch eine Lesart des offenen KI-Briefs. Wird da womöglich so ein böses Weltuntergangsszenario entworfen, um von den aktuellen, echten KI-Problemen abzulenken?

Denn wie gesagt, es gäbe da ja einiges mehr, über das man mal nachdenken könnte. Also nicht nur über die erwähnten potenziell verschwindenden Arbeitsplätze, sondern auch darüber, wie KI-Unternehmen ihre Produkte mit menschengemachten Werken wie Bildern, Texten, Büchern füttern, damit viel Geld verdienen, ohne die Urheber überhaupt zu bezahlen.

Oder auch darüber, was eigentlich passiert, wenn zum Beispiel Bilder quasi nur noch Remixes von vorhandenen Bildern sind, weil es sich nicht mehr lohnt, aufwendige Fotoproduktionen zu machen, weil man ja ganz leicht super professionell aussehende Fotos generieren lassen kann.

Aber entsteht dann irgendwann gar nichts Neues mehr? Lassen wir dann nur altes Zeugs von KIs immer wieder neu zusammenrühren? Also hat quasi jetzt die Kultur aufgehört? Ja und was ist eigentlich mit der Wahrheit, wenn niemand mehr Fakes von echten Bildern unterscheiden kann?

Und wird es personalisierte Fake-News geben vielleicht, mit denen sich Menschen zielgenau manipulieren lassen? Das sind Sachen, über die wir diskutieren sollen. Und dann vielleicht später irgendwann mal über die KI-Weltherrschaft. Oder? Wie seht ihr das? Tschüss!


c't 3003 ist der YouTube-Channel von c't. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t magazin. Die Redakteure Jan-Keno Janssen und Lukas Rumpler sowie die Video-Producer Şahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.

(jkj)