Künstliche Allgemeine Intelligenz: Wissen, was wahr ist

Könnte der Traum von einer denkenden, menschenähnlichen Maschine wirklich wahr werden? Die Frage wird derzeit heftiger denn je diskutiert.

In Pocket speichern vorlesen Druckansicht 34 Kommentare lesen

(Bild: picture alliance/PantherMedia)

Stand:
Lesezeit: 11 Min.
Von
  • Will Douglas Heaven
Inhaltsverzeichnis

Ben Goertzel hat schon immer etwas größer gedacht: Vor gut zwanzig Jahren gründete der KI-Forscher ein Startup namens Webmind. Es war Teil des sogenannten Dot-Com-Booms – als Investoren alles finanzierten, was auch nur im Entferntesten mit Computern und dem Internet zu tun hatte. Doch selbst für diese wilde Zeit waren die Ziele von Webmind ehrgeizig: Goertzel wollte das digitale Abbild vom Gehirn eines Babys erschaffen und es ins Internet hochladen.

Wiederveröffentlichung

Anlässlich der Spekulationen um OpenAIs möglichen Durchbruch auf dem Gebiet der künstlichen, allgemeinen Intelligenz veröffentlichen wir diesen Artikel frei zugänglich. Der Text erschien ursprünglich in Ausgabe 2/2021 von MIT Technology Review.

Dort wäre es seiner Meinung nach zu einem vollständig entwickelten, sich selbst bewussten und weitaus intelligenteren Wesen herangewachsen als ein Mensch. "Wir stehen am Rande eines Übergangs, der in seiner Bedeutung dem Aufkommen der Intelligenz oder der Entstehung der Sprache gleichkommt", sagte er 1998 dem Christian Science Monitor.

Webmind versuchte sich zu finanzieren, indem es nebenbei ein Tool zur Vorhersage des Verhaltens der Finanzmärkte baute, aber der größere Traum ging nie in Erfüllung. Nachdem das Unternehmen 20 Millionen Dollar verbrannt hatte, wurde Webmind aus seinen Büros an der Südspitze Manhattans vertrieben und stellte die Bezahlung seiner Mitarbeiter ein. Im Jahr 2001 meldete das Unternehmen Konkurs an.

Doch Goertzel gab nicht auf. Einige Jahre nach der Pleite von Webmind prägte er 2007 einen Begriff, der die KI-Forscher bis heute spaltet: "Künstliche Allgemeine Intelligenz" – englisch "Artificial General Intelligence", kurz AGI, ist ein Synonym für all das, was den KIs bis dahin – und auch heute immer noch – fehlte: Die Fähigkeit zu verallgemeinern, zu abstrahieren und Zusammenhänge wirklich zu verstehen. Diese AGI, verkündete Goertzel, müsse das Ziel der KI-Forschung werden.

Denn ein Computer kann zwar einfache logische Folgerungen ziehen wie: Wenn aus Argument A folgt, dass Argument B wahr ist und aus B folgt, dass C wahr ist, dann muss aus A ebenfalls folgen, dass C wahr ist. Doch A, B und C sind für die Software nur beliebige, austauschbare Symbole. Um in der realen Welt zurecht zu kommen, müsste eine Künstliche Intelligenz lernen, wahre Aussagen über die Welt von unwahren zu unterscheiden – wie ein kleines Kind, das sich entwickelt.

Der KI-Forscher Ben Goertzel hat den Begriff „Artificial General Intelligence“ geprägt. Er ist überzeugt davon, dass Maschinen übermenschliche Fähigkeiten entwickeln können. Hier ist er im Jahr 2009 zu sehen.

(Bild: Raj Dye / Wikipedia / cc-by-3.0)

"Wenn man von AGI sprach, bedeutete das, dass die bisherige KI-Forschung gescheitert war, sagt Joanna Bryson, KI-Forscherin an der Hertie School in Berlin: "Es war die Vorstellung, dass es Leute gibt, die nur dieses langweilige Zeug machen, wie maschinelles Sehen, aber wir hier drüben – und ich war damals eine von ihnen – versuchen immer noch, die menschliche Intelligenz zu verstehen", sagt sie. "Starke KI, kognitive Wissenschaft, AGI – das waren unsere verschiedenen Arten zu sagen: ‚Ihr habt es vermasselt; wir machen weiter.‘"

Ein normales KI-System, so die Vorstellung, wäre bald nur noch ein Stück Software – langweiliges Zeug. Auf der anderen Seite steht AGI als Stellvertreter für eine KI, von der wir nur noch nicht herausgefunden haben, wie wir sie bauen können. Mit anderen Worten: So etwas wie der heilige Gral der KI-Forschung – eine leuchtende Vision mit wunderbaren Fähigkeiten, die immer außer Reichweite bleibt.