Umfrage: Woran erkennt man eine Künstliche Allgemeine Intelligenz?

Mit welchem Test ließe sich eine universelle KI erkennen? Wann würde die erste KI ihn bestehen? Und wäre sie überhaupt wünschenswert? Experten antworten.

In Pocket speichern vorlesen Druckansicht 34 Kommentare lesen

(Bild: incrediblephoto / Shutterstock.com)

Lesezeit: 4 Min.
Inhaltsverzeichnis

Sind GPT & Co die Vorboten einer Künstlichen Allgemeinen Intelligenz (AGI), die ähnlich universell arbeitet wie der menschliche Geist? Dieser Frage ging das Magazin MIT Technology Review in seiner aktuellen Ausgabe 3/2024 nach. Die Schwierigkeiten beginnen schon damit, überhaupt zu erkennen, wann man es mit einer AGI zu tun hat. Eine sehr allgemeine Definition von AGI wäre: Sie muss sowohl universell einsetzbar als auch sehr leistungsfähig sein, und sie muss selbst lernen, wie sie ihre Aufgaben erledigt. Doch wie genau lässt sich das feststellen?

Der Turing-Test, der lange Zeit als Prüfstein für künstliche Intelligenz galt, kommt für die neuen Sprachmodelle kaum noch infrage – zu menschenähnlich sind ihre Äußerungen mittlerweile. MIT Technology Review hat deshalb zahlreiche Forscherinnen und Forscher gefragt: "Welche Art von Test müsste eine KI bestehen, um von Ihnen als AGI gemäß dieser Definition akzeptiert zu werden?"

Bemerkenswerterweise nannten zwei Forscher eine nahezu gleichlautende Antwort: "Ein Jahr lang die Arbeit eines Büroangestellten übernehmen, ohne dass es irgendeine(r) merkt", schrieb Stanford-Professor Sebastian Thrun, einer der Pioniere des autonomen Fahrens und des digitalen Lernens. Derzeit erforscht er vor allem den Einsatz von KI im Gesundheitswesen und im Smart Home sowie bei der Verhaltensvorhersage von Menschen. Thrun rechnet damit, dass 2026 solch eine AGI auf den Markt kommen wird.

Ähnlich auch die Antwort von Kristian Kersting: "Wenn ich bei einer neuen Mitarbeiterin in meiner Arbeitsgruppe erst nach einem halben oder einem Jahr merke, dass es sich um eine Künstliche Intelligenz handelt." Kersting ist unter anderem Professor am Centre for Cognitive Science der TU Darmstadt, Co-Direktor des Hessian Center for AI sowie Leiter des Forschungsbereichs "Grundlagen der Systemischen KI" des DFKI. Allerdings ergänzt Kersting auch: "Das wäre meiner Meinung nach zwingend mit einem physischen Körper verbunden, ohne Körper würde ich nicht von einer AGI sprechen." Ein AGI gemäß dieser Definition werde man nach Kerstings Einschätzung "auch die nächsten zwei bis drei Generationen" nicht erleben.

Klaus Mainzer hingegen sieht die AGI schon längst erreicht: "Es macht keinen Sinn, über irgendwelche Superintelligenzen zu fantasieren!", antwortet er. "Die existierende Generative KI (zum Beispiel ChatGPT) erfüllt bereits begrenzt die drei genannten Kriterien: a) Sie ist vielseitig anwendbar. b) Sie ist in vielen Feldern sehr leistungsfähig und c) kann bis zu einem gewissen Grad selbst lernen, Aufgaben zu lösen (aufgrund von verstärkendem Lernen)." Mainzer ist ehemaliger Ordinarius für Philosophie und Wissenschaftstheorie und nun Emeritus of Excellence an der School of Social Sciences and Technology der TU München.

Die neue MIT Technology Review 3/2024

Nach dem Rätselraten um OpenAIs möglichem Durchbruch auf dem Gebiet der Allgemeinen Künstlichen Intelligenz ist es an der Zeit ist, sich mit den möglichen Folgen auseinanderzusetzen: Was bedeutet es, wenn wir es eines Tages mit einer menschenähnlichen Künstlichen Intelligenz zu tun bekommen? Highlights aus dem Heft:

Katharina Zweig hingegen sieht eine AGI nicht in greifbarer Nähe. Wichtige Bedingung für eine AGI sei es, "existenziell von ihrem Weltbild" abzuhängen. "Als Menschen haben wir zum Beispiel ein Modell davon, wie schnell ein Auto fährt, und hängen existenziell davon ab, wenn wir eine viel befahrene Straße überqueren wollen", schreibt Zweig. "Unsere heutigen KI-Systeme hängen in keiner Form von ihren Voraussagen über die Welt ab. Das muss man im Moment gar nicht testen – dass diese Abhängigkeit fehlt, kann man als Informatikerin direkt an der Programmierung sehen."

Eine solche AGI werde "hoffentlich niemand" entwickeln. Zweig: "Wir sollten es als Menschen gar nicht erst versuchen. Denn dazu müssten wir der Maschine einen universellen Kompass mitgeben, was "gut" und was "schlecht" ist. Unser eigener Kompass hat sich evolutionär entwickelt und wird zusätzlich durch soziale Interaktion ständig neu ausgerichtet – und ist trotzdem oft nicht zuverlässig. Ich kann mir nicht vorstellen, dass wir gut darin wären, einen solchen Kompass für Maschinen zu entwickeln."

Zweig ist Professorin an der TU Kaiserslautern und leitet dort das Algorithm Accountability Lab. Sie ist Mitglied der Enquete-Kommission "Künstliche Intelligenz" zur Beratung des Bundestages und weiterer Beratungsgremien.

(grh)