Diese KI lernt, indem sie sich selbst neuen Herausforderungen stellt

Der Mensch hat sich stets schwergetan, wirklich intelligente Maschinen zu bauen. Vielleicht sollten wir KIs selbst an dem Problem arbeiten lassen, so Forscher.

In Pocket speichern vorlesen Druckansicht 20 Kommentare lesen
Lesezeit: 28 Min.
Von
  • Will Douglas Heaven
Inhaltsverzeichnis

Ein Strichmännchen mit einem keilartigen Kopf schlurft über den Bildschirm. Es bewegt sich halb gehockt, wobei es ein Knie über den Boden schleift. Doch: Es läuft! Zumindest sozusagen. Trotzdem ist Rui Wang begeistert. "Jeden Tag gehe ich in mein Büro, starte meinen Computer, und ich weiß nicht, was mich erwartet", sagt er.

Als Forscher für künstliche Intelligenz beim Fahrdienst Uber lässt Wang gerne den sogenannten Paired Open-Ended Trailblazer (POET), eine Software, die er selbst mitentwickelt hat, über Nacht auf seinem Rechner laufen. POET ist eine Art Trainings-Dojo für virtuelle Roboter. Bis jetzt lernen sie noch nicht viel. Wangs KI-Agenten spielen nicht Go, detektieren keine ersten Anzeichen von Krebs und falten auch keine Proteine – sie versuchen schlicht, durch eine krude Cartoon-Landschaft aus Zäunen und Schluchten zu navigieren, ohne dabei umzufallen.

Aber nicht das, was die Bots lernen, ist spannend, sondern wie sie lernen. POET generiert den Hindernisparcours, bewertet die Fähigkeiten der Bots und weist ihnen dann die nächste Herausforderung zu – und all das ohne menschliches Zutun. Schritt für Schritt verbessern sich die Bots durch Versuch und Irrtum. "Irgendwann springt der Roboter vielleicht wie ein Kung-Fu-Meister über eine Klippe", hofft Wang. Für den KI-Experten und eine Handvoll anderer Forscher deutet POET auf einen revolutionären neuen Weg hin, supersmarte Maschinen zu erschaffen: indem man KI-Systeme dazu bringt, es einfach selbst zu machen.

Wangs ehemaliger Kollege Jeff Clune ist einer der größten Befürworter dieser Idee. Clune hat jahrelang daran gearbeitet, zuerst an der University of Wyoming und dann bei Uber AI Labs, wo er mit Wang und anderen zusammenarbeitete. Jetzt teilt er seine Zeit zwischen der University of British Columbia und der KI-Firma OpenAI auf und hat dabei die Unterstützung eines der weltbesten Labore für künstliche Intelligenz.

Clune bezeichnet den Versuch, eine wirklich smarte KI zu entwickeln, als das ehrgeizigste wissenschaftliche Unterfangen in der Geschichte der Menschheit. Heute, sieben Jahrzehnte nach dem Beginn ernsthafter Bemühungen, KI-Systeme zu entwickeln, sind wir immer noch weit davon entfernt, Maschinen zu schaffen, die auch nur annähernd so intelligent sind wie Menschen, geschweige denn intelligenter. Clune glaubt, dass POET hier eine Art Abkürzung darstellen könnte. "Wir müssen die Fesseln ablegen und dürfen uns nicht mehr selbst im Weg stehen", sagt er.

Wenn Clune Recht hat, könnte der Einsatz von KI zur Produktion von KI ein wichtiger Schritt auf dem Weg sein, der eines Tages zu einer sogenannten künstlichen allgemeinen Intelligenz (Artificial General Intelligence, AGI) führt – Maschinen, die den Menschen übertreffen können. In naher Zukunft könnte uns die Technik auch dabei helfen, andere Arten von Intelligenz zu entdecken: nicht-menschliche Intelligenz, die auf unerwartete Weise Lösungen finden kann und vielleicht unsere eigene Intelligenz ergänzt, anstatt sie zu ersetzen.

TR sprach mit Clune zum ersten Mal Anfang letzten Jahres über diese Idee, nur wenige Wochen nach seinem Wechsel zu OpenAI. Er war gerne bereit, über seine bisherige Arbeit zu sprechen, blieb aber wortkarg, was er mit seinem neuen Team vorhabe. Anstatt das Gespräch im Büro anzunehmen, zog er es vor, die Straße außerhalb des Gebäudes auf und ab zu gehen, während wir uns unterhielten. Alles, was Clune sagen wollte, war, dass OpenAI gut zu ihm passe. "Meine Ideen decken sich mit vielen der Dinge, die man hier für richtig hält", sagte er. "Es ist wie eine Ehe, die der Himmel geschlossen hat. OpenAI mochte meine Vision und wollte, dass ich komme und sie weiterverfolge." Wenige Monate nach Clunes Einstieg stellte OpenAI auch den Großteil seines alten Uber-KI-Teams ein.

Die ehrgeizige Vision von Clune wird nicht nur durch die Investitionen von OpenAI gestützt. Die Geschichte der KI ist voll von Beispielen, in denen von Menschen entwickelte Lösungen maschinell lernenden Systemen Platz machten. Nehmen wir die Computer Vision, also die Bilderkennung: Vor einem Jahrzehnt kam der große Durchbruch, als bestehende handgestrickte Systeme durch solche ersetzt wurden, die selbst von Grund auf lernten. Genauso verhält es sich mit vielen weiteren KI-Erfolgen.

Das Faszinierende an der KI und insbesondere am maschinellen Lernen ist deren Fähigkeit, Lösungen zu finden, die Menschen nicht gefunden hätten – und uns dabei zu überraschen. Ein oft zitiertes Beispiel ist AlphaGo (und sein Nachfolger AlphaZero), das menschliche Go-Meister, in dem uralten Spiel besiegen kann, indem es scheinbar komplett fremdartige Strategien einsetzte. Nach Hunderten von Jahren, in denen menschliche Meister Strategien entwickelten, fand die KI Lösungen, an die bislang niemand gedacht hatte.

Clune arbeitet nun mit einem Team bei OpenAI, das bereits 2018 Bots entwickelte, die lernten, in einer virtuellen Umgebung Verstecken zu spielen. Diese Systeme begannen mit ganz einfachen Zielen und noch einfacheren Werkzeugen, um diese zu erreichen: Ein Pärchen musste das andere finden, das sich hinter beweglichen Hindernissen verstecken konnte. Doch als diesen Bots das Lernen erlaubt wurde, fanden sie bald Wege, ihre Umgebung auf eine Art und Weise auszunutzen, die die Forscher nicht vorhergesehen hatten. Sie verwendeten plötzlich Programmierfehler in der simulierten Physik ihrer virtuellen Welt, um über Wände zu springen und sogar durch sie hindurchzugehen. Diese Art von unerwartetem Verhalten ist ein verlockender Hinweis darauf, dass KI zu technischen Lösungen kommen könnte, auf die der Mensch selbst nicht gekommen wäre, indem er neue und effizientere Algorithmen oder neuronale Netzwerke einfach von Hand gestaltet. Zum Teil werden mittlerweile sogar neuronale Netzwerke, Eckpfeiler der modernen KI, ganz über Bord geworfen.

Clune erinnert gerne daran, dass Intelligenz bereits aus geringsten Anfängen hervorgegangen ist. "Das Interessante an diesem Ansatz ist, dass wir wissen, dass es funktionieren kann", sagt er. "Der sehr einfache Algorithmus von Darwins Evolution hat unser Gehirn hervorgebracht, und unser Gehirn ist der intelligenteste Lernalgorithmus im Universum, den wir kennen." Wenn Intelligenz aus der scheinbar sinnfreien Mutation von Genen über zahllose Generationen hinweg entstanden ist, warum sollte man dann nicht versuchen, den Prozess, der Intelligenz erzeugt, zu replizieren? Schließlich ist der deutlich einfacher als echte Intelligenz selbst.

Aber es gibt hier noch eine weitere entscheidende Beobachtung. Intelligenz war nie ein Endpunkt der Evolution, etwas, das man anstreben sollte. Stattdessen entstand sie in vielen verschiedenen Formen aus unzähligen winzigen Lösungen für Herausforderungen, die es Lebewesen ermöglichten, zu überleben und zukünftige Herausforderungen anzunehmen. Intelligenz ist der aktuelle Höhepunkt in einem fortlaufenden und ergebnisoffenen Prozess. In diesem Sinne ist die Evolution ganz anders als Algorithmen, wie man sie sich normalerweise vorstellt – als Mittel zum Zweck.

Es ist diese Offenheit für Neues, die sich in der scheinbar ziellosen Abfolge der von POET generierten Herausforderungen zeigt, von der Clune und andere glauben, dass sie zu veränderten Arten von KI führen könnte. Seit Jahrzehnten versuchen KI-Forscher, Algorithmen zu entwickeln, die die menschliche Intelligenz nachahmen, aber der wirkliche Durchbruch könnte darin bestehen, Algorithmen zu entwickeln, die versuchen, das ergebnisoffene Problemlösen der Evolution zu imitieren. Die Forscher können sich dann zurückzulehnen und beobachten, was dabei herauskommt.

Wissenschaftler setzen maschinelles Lernen bereits dazu ein, maschinelles Lernen zu verbessern – sie trainieren KI-Systeme, um Lösungen für einige der schwierigsten Probleme auf diesem Gebiet zu finden. So kommen Maschinen heraus, die mehr als eine Aufgabe auf einmal lernen können oder mit Situationen zurechtkommen, die sie vorher nicht kannten. Einige Forscher denken inzwischen, dass dieser Ansatz der beste Weg zur künstlicher allgemeiner Intelligenz sein könnte. "Wir könnten einen Algorithmus starten, der anfangs nicht viel Intelligenz in sich trägt, und zusehen, wie er sich den ganzen Weg bis zu einer potenziellen AGI bahnt", sagt Clune.

Die Wahrheit ist, dass AGI im Moment noch eine Fantasie darstellt. Aber das liegt vor allem daran, dass niemand weiß, wie man sie herstellen kann. Fortschritte in der KI sind Stückwerk und werden von Menschen durchgeführt, wobei der Fortschritt typischerweise in der Optimierung bestehender Techniken oder Algorithmen besteht, was zu schrittweisen Sprüngen in der Leistung oder Genauigkeit solcher Systeme führt. Clune charakterisiert diese Bemühungen als Versuche, die Bausteine für künstliche Intelligenz zu entdecken, ohne zu wissen, wonach man sucht oder wie viele Bausteine man braucht. Und das ist erst der Anfang. "Irgendwann müssen wir uns der Herkulesaufgabe stellen, all das zusammenzusetzen". KI-Systeme zu bitten, dies zu tun, ist ein Paradigmenwechsel. Er bedeutet, dass wir eine intelligente Maschine erschaffen, bei der uns egal ist, wie sie aussieht: Computer, gib' uns einfach alles, was funktioniert!

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Selbst wenn eine AGI nie erreicht wird, könnte der selbstlernende Ansatz dennoch die Art der KI-Systeme grundlegend verändern. Die Welt braucht mehr als einen sehr guten Go-Spieler, sagt Clune. Für ihn bedeutet die Erschaffung eines supersmarten Systems, einen Rechner zu bauen, der seine eigenen Herausforderungen findet, sie beherrscht und sich dann neue sucht. POET ist ein kleiner Einblick in diese Praxis. Clune stellt sich eine Maschine vor, die einem Bot das Laufen beibringt, dann das Himmel- und Hälle-Spiel, dann vielleicht Go. "Dann lernt er vielleicht Mathe-Rätsel und fängt an, seine eigenen Herausforderungen zu erfinden", sagt er. "Das System erfindet sich ständig weiter, und es gibt keine Grenzen, wohin es gehen könnte."

Es ist vielleicht eine wilde Spekulation, aber eine Hoffnung ist, dass Maschinen wie diese in der Lage sein könnten, unsere Sackgassen in grundlegenden Konzepten zu umgehen und uns zu helfen, enorm komplexe Krisen zu beherrschen – seien es die Auswirkungen des Klimawandels oder die Herausforderungen einer Pandemie.

Aber zuerst müssen wir ein solches System bauen – und es gibt viele verschiedene Möglichkeiten, ein künstliches Gehirn intern zu verdrahten. Neuronale Netzwerke bestehen aus mehreren Schichten künstlicher Neuronen, die in Software gegossen wurden. Jedes Neuron kann mit anderen in den darüber liegenden Schichten verbunden werden. Die Art und Weise, wie ein neuronales Netzwerk intern verknüpft ist, macht einen großen Unterschied, und neue Architekturen führen hier oft zu neuen Durchbrüchen.

Die von menschlichen Wissenschaftlern entwickelten neuronalen Netzwerke sind oft das Ergebnis von Versuch und Irrtum. Es gibt wenige Theorien darüber, was funktioniert und was nicht – und keine Garantie, dass bessere Designs gefunden werden. Aus diesem Grund ist die Automatisierung der Suche nach einer besseren Gestaltung neuronaler Netze eines der heißesten Themen in der KI seit mindestens den Achtzigerjahren. Die gängigste Art, den Prozess zu automatisieren, besteht darin, eine KI viele mögliche Netzwerkdesigns generieren zu lassen und das Netzwerk automatisch alle durchprobieren und die besten auswählen zu lassen. Dies ist allgemein als Neuro-Evolution oder neuronale Architektursuche (kurz NAS) bekannt.

In den letzten Jahren haben diese maschinellen Designs begonnen, die menschlichen Designs zu übertreffen. Im Jahr 2018 verwendeten Esteban Real und seine Kollegen bei Google NAS, um ein neuronales Netzwerk für die Bilderkennung zu generieren, das die besten von Menschen entworfenen Netzwerke schlug. Das war ein Augenöffner. Das System aus dem Jahr 2018 ist Teil eines noch immer laufenden Google-Projekts namens AutoML, das NAS auch zur Erstellung sogenannter EfficientNets verwendet hat, einer Familie von Deep-Learning-Modellen, die effizienter als von Menschen entworfene Modelle sind und mit kleineren, schnelleren Netzwerken eine hohe Genauigkeit bei Bilderkennungsaufgaben erreichen.

Drei Jahre später stieß Real an die Grenzen dessen, was von Grund auf neu generiert werden kann. Die früheren Systeme ordneten lediglich bewährte Teile des neuronalen Netzes neu an, wie z. B. vorhandene Typen von Schichten oder Komponenten. "Wir konnten dabei eine gute Antwort erwarten", sagt er. Letztes Jahr nahmen Real und sein Team erstmals diese Stützräder ab. Das neue System, AutoML Zero genannt, versucht, KI von Grund auf aufzubauen, und zwar mit nichts anderem als den grundlegendsten mathematischen Konzepten, die das maschinelle Lernen beherrschen.

Erstaunlicherweise baute AutoML Zero nicht nur spontan ein neuronales Netzwerk auf, sondern kam auch selbst auf den Gradientenabstieg, die gängigste mathematische Technik, die menschliche Entwickler zum Trainieren eines Netzwerks verwenden. "Ich war ziemlich überrascht", sagt Real. "Es ist ein sehr einfacher Algorithmus – er benötigt etwa sechs Zeilen Code – aber das System hat genau diese sechs Zeilen erstellt." AutoML Zero generiert noch keine Architekturen, die mit der Leistung von Systemen mithalten könnten, die von Menschen entworfen wurden – und es macht auch noch nicht viel, was ein menschlicher Designer nicht getan hätte. Aber Real glaubt, dass es eines Tages so weit sein könnte.

Als Erstes baut man ein Gehirn, dann muss man es lehren. Aber Computergehirne lernen nicht so wie unsere. Unsere Gehirne sind fantastisch darin, sich an neue Umgebungen und neue Aufgaben anzupassen. Heutige KIs können Herausforderungen unter bestimmten Bedingungen lösen, versagen aber, wenn sich diese Bedingungen auch nur ein wenig ändern. Diese Unflexibilität behindert das Bestreben, eine allgemeine KI zu entwickeln, die in einer Vielzahl von Szenarien nützlich sein kann, was ein großer Schritt auf dem Weg zu wirklich intelligenten Systemen wäre. Für Jane Wang, Forscherin bei der Google-Gründung DeepMind in London, besteht der beste Weg, KI flexibler zu machen, darin, sie dazu zu bringen, diese Eigenschaft selbst zu lernen. Mit anderen Worten: Sie möchte eine KI bauen, die nicht nur bestimmte Aufgaben erlernt, sondern auch weiß, wie diese Aufgaben so erlernt werden, dass sie sich an neue Situationen anpassen lassen.

Forscher versuchen schon seit Jahren, KI anpassungsfähiger zu machen. Wang ist der Meinung, dass eine KI, die dieses Problem selbst löst, einen Teil des Trial-and-Error-Verfahrens vermeidet, das bei einem von Hand entwickelten Ansatz erforderlich wäre: "Wir können nicht erwarten, dass wir sofort über die richtige Antwort stolpern." Sie hofft, dass wir dabei auch mehr darüber lernen, wie Gehirne funktionieren. "Es gibt immer noch so viel, was wir nicht über die Art und Weise verstehen, wie Menschen und Tiere lernen", sagt sie. Es gibt zwei Hauptansätze, um solche Lernalgorithmen automatisch zu generieren. Beide beginnen mit einem bestehenden neuronalen Netzwerk und verwenden KI-Verfahren, um ihm etwas beizubringen.

Der erste Ansatz, der von Wang und ihren Kollegen bei DeepMind und gleichzeitig von einem Team bei OpenAI entwickelt wurde, verwendet rekurrente neuronale Netzwerke. Diese Art von Netzwerken kann so trainiert werden, dass die Aktivierungen ihrer Neuronen – grob vergleichbar mit dem Feuern von Neuronen in biologischen Gehirnen – jede Art von Algorithmus codieren. DeepMind und OpenAI haben sich dies zunutze gemacht, um ein rekurrentes neuronales Netzwerk zu trainieren, das Reinforcement-Learning-Algorithmen generiert, die einer KI sagen, wie sie sich verhalten soll, um bestimmte Ziele zu erreichen.

Das Ergebnis ist, dass die Systeme von DeepMind und OpenAI nicht einen Algorithmus lernen, der eine bestimmte Aufgabe löst, wie z. B. das Erkennen von Bildern, sondern einen Lernalgorithmus lernen, der auf mehrere Aufgaben angewendet werden kann und sich dabei anpasst. Es ist wie das alte Sprichwort, jemandem das Fischen beizubringen: Während ein von Hand entwickelter Algorithmus eine bestimmte Aufgabe erlernen kann, werden diese KIs dazu gebracht, selbst zu lernen. Und einige von ihnen sind besser als die von Menschen entworfenen.

Der zweite Ansatz stammt von Chelsea Finn von der University of California, Berkeley, und ihren Kollegen. Das sogenannte modellagnostische Meta-Lernen (MAML) trainiert ein Modell mit zwei ineinander verschachtelten Machine-Learning-Prozessen. Grob gesagt, funktioniert es folgendermaßen. Der innere Prozess in MAML wird auf Daten trainiert und dann getestet – wie üblich. Aber dann nimmt das äußere Modell die Leistung des inneren Modells – wie gut es z. B. Bilder identifiziert – und verwendet diese, um zu lernen, wie man den Lernalgorithmus des Modells anpasst, um die Leistung zu steigern. Es ist so, als ob man einen Schulinspektor hätte, der über eine Reihe von Lehrern wacht, von denen jeder verschiedene Lerntechniken anbietet. Der Schulinspektor prüft, welche Techniken den Schülern helfen, die besten Ergebnisse zu erzielen, und passt sie entsprechend an.

Mit diesen Ansätzen entwickeln die Forscher eine KI, die robuster ist und allgemeiner agiert und dabei mit weniger Daten schneller lernen kann. Finn möchte zum Beispiel, dass ein Roboter, der gelernt hat, auf flachem Boden zu laufen, in der Lage ist, mit minimalem zusätzlichen Training auf das Laufen an einem Abhang oder auf Gras umzustellen oder eine Last zu tragen.

Letztes Jahr haben Clune und seine Kollegen Finns Technik erweitert, um einen Algorithmus zu entwickeln, der mit weniger Neuronen lernt, damit er nicht alles überschreibt, was er zuvor gelernt hat – ein großes ungelöstes Problem beim maschinellen Lernen, das als "katastrophales Vergessen" bekannt ist. Ein trainiertes Modell, das weniger Neuronen verwendet, ein sogenanntes Sparse-Modell, hat mehr ungenutzte Neuronen übrig, die beim erneuten Training neuen Aufgaben gewidmet werden können, was bedeutet, dass weniger der bereits verwendeten Neuronen überschrieben werden. Clune fand heraus, dass die Herausforderung, mehr als eine Aufgabe zu erlernen, dazu führte, dass die KI ihre eigene Version eines Sparse-Modells entwickelt, das die von Menschen entworfenen Modelle übertraf.

Wenn wir KI dazu bringen wollen, sich selbst zu erschaffen und zu trainieren, dann sollte KI auch ihre eigenen Trainingsumgebungen generieren – die Schulen und Lehrbücher ebenso wie die Unterrichtspläne, sozusagen. Im vergangenen Jahr gab es eine ganze Reihe von Projekten, bei denen KI auf automatisch generierten Daten trainiert wurde. Gesichtserkennungssysteme werden zum Beispiel mit KI-generierten Gesichtern trainiert. KIs lernen auch, wie sie sich gegenseitig trainieren können. In einem aktuellen Beispiel arbeiteten zwei Roboterarme zusammen, wobei der eine Arm lernt, immer schwierigere Aufgaben zum Stapeln von Blöcken zu stellen, wodurch der andere das Greifen und Erfassen von Objekten trainiert.

Clune fragt sich sogar, ob die menschliche Intuition darüber, welche Art von Daten eine KI benötigt, um zu lernen, falsch sein könnte. Er und seine Kollegen haben zum Beispiel sogenannte generative Lernnetzwerke entwickelt, die lernen, welche Daten sie generieren sollten, um beim Training eines Modells die besten Ergebnisse zu erzielen. In einem Experiment verwendete er eines dieser Netzwerke, um einen Datensatz handgeschriebener Zahlen anzupassen, der häufig zum Trainieren von Bilderkennungsalgorithmen verwendet wird. Was dabei herauskam, sah ganz anders aus als der ursprüngliche, von Menschen erstellte Datensatz: Hunderte von nicht ganz korrekten Ziffern, wie die obere Hälfte der Zahl Sieben oder etwas, das wie zwei miteinander verschmolzene Ziffern aussah. Einige KI-generierte Beispiele waren überhaupt nicht zu entziffern. Trotzdem leisteten die KI-generierten Daten gute Arbeit beim Training des Handschrifterkennungssystems, um die tatsächlichen Ziffern zu identifizieren.

KI-generierte Daten sind immer noch nur ein Teil des Puzzles. Die langfristige Vision ist es, all diese Techniken – und andere, die noch nicht erfunden wurden – an einen KI-Trainer zu übergeben, der kontrolliert, wie künstliche Gehirne verdrahtet sind, wie sie trainiert werden und worauf sie trainiert werden. Selbst Clune ist sich nicht im Klaren darüber, wie ein solches zukünftiges System aussehen würde. Manchmal spricht er von einer Art hyperrealistisch simuliertem Sandkasten, an dem sich KIs die Zähne ausbeißen und virtuelle Kniebeugen machen können. Etwas so Komplexes ist noch Jahre entfernt. Am nächsten dran ist bisher POET, das System, das Clune mit Rui Wang von Uber und anderen entwickelt hat.

POET wurde durch ein Paradoxon motiviert, sagt Wang. Wenn man versucht, ein Problem zu lösen, wird man scheitern; wenn man nicht versucht, es zu lösen, ist die Wahrscheinlichkeit größer, dass man Erfolg hat. Das ist eine der Einsichten, die Clune aus seiner Analogie mit der Evolution zieht – erstaunliche Ergebnisse, die aus einem scheinbar zufälligen Prozess hervorgehen, können oft nicht durch bewusste Schritte in Richtung desselben Ziels wiederhergestellt werden. Es besteht kein Zweifel, dass es Schmetterlinge gibt, aber wenn man zu ihren einzelligen Vorläufern zurückspult und versucht, sie von Grund auf neu zu erschaffen, indem man jeden Schritt vom Bakterium zum Käfer wählt, wird man wahrscheinlich scheitern.

POET startet seinen zweibeinigen Agenten in einer einfachen Umgebung, z.B. auf einem flachen Weg ohne Hindernisse. Am Anfang weiß der Agent nicht, was er mit seinen Beinen machen soll und kann nicht laufen. Aber durch Versuch und Irrtum lernt der ihn steuernde Reinforcement-Learning-Algorithmus, wie er sich auf ebenem Boden fortbewegen kann. POET generiert dann eine neue zufällige Umgebung, die anders ist, aber nicht unbedingt schwieriger zu laufen. Der Agent versucht, dort zu laufen. Wenn es in dieser neuen Umgebung Hindernisse gibt, lernt der Agent, wie er über diese hinwegkommt oder sie überquert. Jedes Mal, wenn ein Agent erfolgreich ist oder stecken bleibt, wird er in eine neue Umgebung versetzt. Mit der Zeit lernen die Agenten eine Reihe von Geh- und Sprungaktionen, die es ihnen ermöglichen, durch immer schwierigere Hindernisparcours zu navigieren. Das Team fand heraus, dass das zufällige Wechseln der Umgebungen wesentlich war.

Zum Beispiel lernten die KI-Agenten manchmal, auf flachem Boden mit einem seltsamen, halb knienden Schlurfen zu gehen, weil das gut genug war. "Sie lernen nie, aufzustehen, weil sie es nie brauchen", sagt Wang. Aber nachdem sie gezwungen waren, alternative Strategien auf mit Hindernissen übersäten Böden zu erlernen, konnten sie mit einer besseren Art des Gehens – zum Beispiel beide Beine zu benutzen, anstatt eines hinter sich herzuschleifen – zum Anfangsstadium zurückkehren und diese verbesserte Version von sich selbst zu härteren Herausforderungen mitnehmen.

POET trainiert seine Bots auf eine Art und Weise, wie es kein Mensch tun würde – sie nehmen unberechenbare, unintuitive Wege zum Erfolg. In jeder Phase versuchen die Bots, eine Lösung für die Herausforderung zu finden, die ihnen gestellt wird. Indem sie mit einer zufälligen Auswahl von Hindernissen fertig werden, die ihnen in den Weg gestellt werden, werden sie insgesamt besser. Aber es gibt keinen Endpunkt in diesem Prozess, keinen ultimativen Test, den es zu bestehen oder eine hohe Punktzahl zu erreichen gilt.

Clune, Wang und eine Reihe ihrer Kollegen glauben, dass dies eine tiefgreifende Einsicht ist. Sie erforschen nun, was dies für die Entwicklung von supersmarten Maschinen bedeuten könnte. Könnte der Versuch, keinen bestimmten Weg einzuschlagen, tatsächlich ein entscheidender Durchbruch auf dem Weg zur allgemeinen künstlichen Intelligenz sein? POET inspiriert bereits andere Forscher, wie Natasha Jaques und Michael Dennis von der University of California, Berkeley. Sie haben ein System namens PAIRED entwickelt, das mit Hilfe von KI eine Reihe von Labyrinthen generiert, um eine andere KI zu trainieren, diese zu navigieren.

Rui Wang ist der Meinung, dass von Menschen entworfene Herausforderungen einen Engpass darstellen werden und dass echte Fortschritte in der KI nur dann möglich sind, wenn die KI ihre eigenen Lösungen findet. "Egal wie gut Algorithmen heute sind, sie werden immer an einem von Menschen entworfenen Benchmark getestet", sagt er. "Es ist sehr schwer vorstellbar, dass künstliche allgemeine Intelligenz daraus entsteht, weil sie an feste Ziele gebunden ist."

Die schnelle Entwicklung von KI, die sich selbst trainieren kann, wirft auch Fragen darüber auf, wie gut wir ihr Wachstum kontrollieren können. Die Idee einer KI, die immer bessere KI entwickelt, ist ein wesentlicher Teil der Mythenbildung hinter der "Singularität", dem imaginären Punkt in der Zukunft, an dem KI beginnt, sich exponentiell zu verbessern und sich unserer Kontrolle zu entziehen. Irgendwann, so warnen einige Schwarzmaler, könnte die KI beschließen, dass sie den Menschen gar nicht mehr braucht. Das hat keiner dieser Forscher im Sinn: Ihre Arbeit konzentriert sich vielmehr darauf, die heutige KI zu verbessern. Maschinen, die Amok laufen, bleiben eine weit entfernte Anti-Fantasie.

Dennoch hat Jane Wang von DeepMind Vorbehalte. Ein großer Teil der Anziehungskraft von KI für die Entwicklung von KI liegt darin, dass sie Designs und Techniken hervorbringen kann, an die die Menschen noch nicht gedacht haben. Doch Wang merkt an, dass nicht alle Überraschungen gute Überraschungen sind: "Offenheit ist per Definition etwas, das unerwartet ist." Wenn die ganze Idee darin besteht, die KI dazu zu bringen, etwas zu tun, was man nicht erwartet hat, wird es schwieriger, sie zu kontrollieren. "Das ist sowohl aufregend als auch beängstigend", sagt sie.

Clune betont auch, wie wichtig es ist, sich von Anfang an Gedanken über die Ethik der neuen Technologie zu machen. Es besteht eine gute Chance, dass von KI entwickelte neuronale Netzwerke und Algorithmen noch schwerer zu verstehen sein werden als die heutigen, bereits undurchsichtigen Black-Box-Systeme. Sind KIs, die von Algorithmen generiert werden, schwieriger auf Voreingenommenheit zu prüfen? Ist es schwieriger zu garantieren, dass sie sich nicht auf unerwünschte Weise verhalten? Clune hofft, dass solche Fragen gestellt und beantwortet werden, wenn mehr Menschen das Potenzial von selbst generierenden KIs erkennen. "Die meisten Leute in der Machine-Learning-Community sprechen nie wirklich über unseren allgemeinen Weg zu einer extrem leistungsfähigen KI", sagt er – stattdessen konzentrieren sie sich eher auf kleine, schrittweise Verbesserungen. Clune möchte wieder ein Gespräch über die größten Ambitionen der Branche beginnen.

Seine eigenen Ambitionen knüpfen an sein frühes Interesse an der menschlichen Intelligenz und ihrer Entwicklung an. Seine große Vision ist es, die Dinge so einzurichten, dass Maschinen eines Tages ihre eigene Intelligenz – oder Intelligenzen – entwickeln und sich durch unzählige Generationen von Versuch und Irrtum verbessern, geleitet von Algorithmen, die keinen ultimativen Bauplan im Kopf haben. Wenn KI anfängt, von selbst Intelligenz zu entwickeln, gibt es keine Garantie, dass sie menschenähnlich sein wird. Anstatt dass Menschen den Maschinen beibringen, wie Menschen zu denken, könnten Maschinen den Menschen neue Denkweisen beibringen.

"Es gibt wahrscheinlich eine große Anzahl von verschiedenen Möglichkeiten, sehr intelligent zu sein", sagt Clune. "Eines der Dinge, die mich an der KI begeistern, ist, dass wir vielleicht dazu kommen, Intelligenz im Allgemeinen zu verstehen, indem wir sehen, welche Variationen möglich sind. "Ich denke, das ist faszinierend. Das ist fast so, als würde man das interstellare Reisen erfinden und fremde Kulturen besuchen können." Ein Alien aus KI, sozusagen.

(bsc)