Wie Bill Gates über die Zukunft mit KI denkt

Der Ex-Microsoft-Chef meint, die Probleme, die dank Künstlicher Intelligenz auftreten könnten, lassen sich managen.

In Pocket speichern vorlesen Druckansicht 45 Kommentare lesen
New,York,,Ny,Usa,-,September,8,,2017:,Bill,Gates

Bill Gates.

(Bild: lev radin/Shutterstock.com)

Lesezeit: 8 Min.
Von
  • Will Douglas Heaven
Inhaltsverzeichnis

Nun auch Bill Gates. Der ehemalige Microsoft-Chef hat sich nun in den Chor jener großen Namen der Tech-Branche eingereiht, die sich zur Frage der Risiken im Zusammenhang mit Künstlicher Intelligenz geäußert haben. Die Kurzfassung? Er ist nicht allzu besorgt. Denn: "Wir haben das schon mal hinbekommen." Er spielt damit auf entscheidene transformative Weggabelungen in der Menschheitsgeschichte an. Sein Optimismus scheint angesichts zahlreicher Unkenrufen erfrischend. Doch wirklich neue Ideen hat er offensichtlich nicht.

Der milliardenschwere Wirtschaftsmagnat und Philanthrop äußerte sich in einem Beitrag auf seinem persönlichen Blog GatesNotes. "Ich möchte die Bedenken, die ich am häufigsten höre und gelesen habe – und von denen ich viele teile –, hier aufgreifen und erklären, wie ich darüber denke", schreibt er in seinem Post.

Laut Gates sei KI "die umwälzendste Technologie, die wir zu unseren Lebzeiten erleben werden". Damit steht sie für ihn auch über dem Internet, dem Smartphone und dem Personal Computer. Und der PC ist bekanntlich jene Erfindung, die Gates wohl am stärksten vorangebracht hat. (Interessanterweise deutet Gates damit an, dass in den nächsten Jahrzehnten wohl nichts noch Größeres als die KI erfunden wird.)

Gates ist eine von Dutzenden hochrangiger Persönlichkeiten, die vor einigen Wochen eine Erklärung des Zentrums für KI-Sicherheit mit Sitz in San Francisco unterzeichnet hatten. Im vollen Wortlaut heißt es darin: "Die Minderung des Risikos eines Aussterbens der Menschheit aufgrund von KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und dem Atomkrieg globale Priorität haben."

In Gates' Blogbeitrag wird jedoch keine Angst geschürt. Tatsächlich wird das existenzielle Risiko durch KI mit keinem Wort erwähnt. Stattdessen bezeichnet Gates die Debatte hier als eine, in der "längerfristige" gegen "unmittelbare" Risiken abgewogen werden müssen. Und er konzentriert sich auf "die Risiken, die bereits bestehen oder bald bestehen werden".

"Gates zupft da schon seit geraumer Zeit an der gleichen Saite", sagt David Leslie, Leiter der Forschungsabteilung für Ethik und "Responsible innovation" am Alan Turing Institute in Großbritannien. Gates war interessanterweise eine von mehreren Persönlichkeiten des öffentlichen Lebens, die vor einem Jahrzehnt, als Deep Learning aufkam, schon über das existenzielle Risiko von KI sprachen, sagt Leslie: "Damals war er noch mehr über Superintelligenz besorgt. Es scheint so, als wäre das ein wenig abgeschwächt worden."

Gates schließt das existenzielle Risiko aber nicht völlig aus. Er frage sich, was passieren könnte, "wenn wir eine KI entwickeln, die jedes beliebige Thema oder jede beliebige Aufgabe erlernen kann", bekannt als allgemeine Künstliche Intelligenz (englischer Begriff: AGI).

"Unabhängig davon, ob wir diesen Punkt in einem Jahrzehnt oder in einem Jahrhundert erreichen, wird sich die Gesellschaft mit tiefgreifenden Fragen auseinandersetzen müssen." Was, so Gates, wenn eine Super-KI ihre eigenen Ziele festlegt? Was, wenn sie mit den Zielen der Menschheit in Konflikt geraten? "Sollten wir überhaupt eine Super-KI entwickeln? Das Nachdenken über diese längerfristigen Risiken sollte aber nicht auf Kosten der unmittelbareren gehen."

Gates hat eine Art Mittelweg zwischen dem Deep-Learning-Pionier Geoffrey Hinton, der Google verlassen hat und im Mai mit seinen Befürchtungen bezüglich der KI an die Öffentlichkeit ging, und anderen KI-Experten wie Yann LeCun und Joelle Pineau von Meta AI, die die Diskussion über existenzielle Risiken für "absurd lächerlich" bis "aus den Angeln gehoben" halten. Meredith Whittaker von Signal hält Befürchtungen von Hinton und anderen hingegen für "Geistergeschichten".

Man sollte darüber nachdenken, welchen Beitrag Gates hier tatsächlich leistet, indem er sich jetzt einmischt, sagt Leslie vom Alan Turing Institute: "Da alle darüber reden, sind wir irgendwie gesättigt." Wie Gates lehnt auch Leslie Doomer-Szenarien nicht gänzlich ab. "Böswillige Parteien können sich diese Technologien zunutze machen und katastrophalen Schaden anrichten", glaubt er. "Man muss nicht an Superintelligenz, die Roboter-Apokalypse oder AGI-Spekulationen glauben, um das zu verstehen." Er stimme zu, dass die unmittelbare Sorge den bestehenden Risiken gelten solle, die sich aus der schnellen Kommerzialisierung von generativer KI ergeben. "Es ist sinnvoll, den Blick zu schärfen und zu sagen: 'Okay, was sind die unmittelbaren Probleme?'"

In seinem Beitrag weist Gates darauf hin, dass KI bereits eine Bedrohung in vielen grundlegenden Bereichen der Gesellschaft darstellt, von Wahlen über Bildung bis hin zur Beschäftigung. Natürlich sind solche Bedenken nichts Neues. Was Gates uns sagen will, ist, dass diese Bedrohungen zwar ernst zu nehmen sind, aber dass wir sie im Griff haben: "Der beste Grund zu glauben, dass wir die Risiken bewältigen können, ist, dass wir es schon einmal getan haben."

Wie KI koloniale Muster befördert

Künstliche Intelligenz kann durch Übersetzung in Echtzeit Brücken zwischen Kulturen schlagen oder mühsame Routinetätigkeiten übernehmen. Doch oftmals reproduziert sie stattdessen Ungerechtigkeit und Diskriminierung und greift dabei auf Muster kolonialer Herrschaft zurück. Kritiker fordern deshalb, ihre verborgenen Strukturen offenzulegen.

In den 70er- und 80er-Jahren veränderten Taschenrechner die Art und Weise, wie Schüler Mathematik lernten, und ermöglichten es ihnen, sich auf das zu konzentrieren, was Gates die "Denkfähigkeiten hinter der Arithmetik" nennt, anstatt auf die Grundrechenarten selbst. Er ist daher der Meinung, dass Anwendungen wie ChatGPT dasselbe mit anderen Fächern tun werden.

In den 80er- und 90er-Jahren veränderten Textverarbeitungs- und Tabellenkalkulationsanwendungen die Büroarbeit – Veränderungen, die von Gates' eigenem Unternehmen, Microsoft, vorangetrieben wurden. Hier blickt Gates darauf zurück, wie sich die Menschen daran angepasst haben. Und er behauptet, dass wir es wieder tun könnten. "Die Textverarbeitung hat die Büroarbeit nicht abgeschafft, aber sie hat sie für immer verändert", schreibt er. Der durch die KI verursachte Wandel werde "ein holpriger Übergang" sein. "Aber es gibt allen Grund zu der Annahme, dass wir die Beeinträchtigung des Lebens der Menschen reduzieren können."

Ähnlich verhält es sich mit Fake News: Wir hätten gelernt, mit Spam umzugehen, also könnten wir das Gleiche mit Deepfakes tun. "Irgendwann haben die meisten Menschen gelernt, bei diesen E-Mails zweimal hinzusehen", schreibt Gates. Man müsse "die gleichen Muskeln für Deepfakes" aufbauen. Gates drängt auf ein schnelles, aber vorsichtiges Handeln, um Schäden zu vermeiden. Das Problem ist, dass er dabei nichts Neues anbietet. Viele seiner Vorschläge kann man abgedroschen nennen, einige sind zumindest oberflächlich.

Wie andere in den letzten Wochen fordert Gates ein globales Gremium zur Regulierung von KI, ähnlich wie die Internationale Atomenergiebehörde IAEA. Seiner Meinung nach wäre das eine gute Möglichkeit, die Entwicklung von KI-Cyberwaffen zu kontrollieren. Was genau er damit meint, führt er nicht aus. Gates sagt, dass Regierungen und Unternehmen Unterstützung anbieten müssen, z. B. in Form von Umschulungsprogrammen, um sicherzustellen, dass die Menschen auf dem neuen KI-geprägten Arbeitsmarkt nicht zurückbleiben.

Auch Lehrer müssten beim Übergang zu einer Welt, in der Apps wie ChatGPT die Norm sind, unterstützt werden, meint er. Gates macht jedoch keine genauen Angaben dazu, wie diese Unterstützung aussehen soll.

In Sachen Deepfakes fordert er neue Tools, die sie für uns erkennen. Doch die neuesten Tools können von KI erzeugte Bilder oder Texte nicht gut genug erkennen, um nützlich zu sein. Und werden solche Detektoren überhaupt mit der Entwicklung der generativen KI mithalten können? Gates hat sicher recht, wenn er schreibt, dass "eine gesunde öffentliche Debatte davon abhängt, dass jeder über die Technologie, ihre Vorteile und Risiken Bescheid weiß". Aber er greift dabei oft auf die Überzeugung zurück, dass KI die Probleme der KI lösen wird – eine Überzeugung, die nicht jeder Experte teilen wird.

Und es stimmt: Den unmittelbaren Risiken sollte Vorrang eingeräumt werden. Ja, wir haben schon früher technologische Umwälzungen durchgestanden (die uns mit Bulldozern überrollt haben). Doch wie? Gates: "Aus allem, was bisher über die Risiken der künstlichen Intelligenz geschrieben wurde – und es wurde viel geschrieben –, geht hervor, dass niemand alle Antworten kennt." Und das wird sich nicht so schnell ändern.

(jle)