Diese KI lernt, indem sie sich selbst neuen Herausforderungen stellt

Seite 4: Versuchen wir nicht, erfolgreich zu sein

Inhaltsverzeichnis

KI-generierte Daten sind immer noch nur ein Teil des Puzzles. Die langfristige Vision ist es, all diese Techniken – und andere, die noch nicht erfunden wurden – an einen KI-Trainer zu übergeben, der kontrolliert, wie künstliche Gehirne verdrahtet sind, wie sie trainiert werden und worauf sie trainiert werden. Selbst Clune ist sich nicht im Klaren darüber, wie ein solches zukünftiges System aussehen würde. Manchmal spricht er von einer Art hyperrealistisch simuliertem Sandkasten, an dem sich KIs die Zähne ausbeißen und virtuelle Kniebeugen machen können. Etwas so Komplexes ist noch Jahre entfernt. Am nächsten dran ist bisher POET, das System, das Clune mit Rui Wang von Uber und anderen entwickelt hat.

POET wurde durch ein Paradoxon motiviert, sagt Wang. Wenn man versucht, ein Problem zu lösen, wird man scheitern; wenn man nicht versucht, es zu lösen, ist die Wahrscheinlichkeit größer, dass man Erfolg hat. Das ist eine der Einsichten, die Clune aus seiner Analogie mit der Evolution zieht – erstaunliche Ergebnisse, die aus einem scheinbar zufälligen Prozess hervorgehen, können oft nicht durch bewusste Schritte in Richtung desselben Ziels wiederhergestellt werden. Es besteht kein Zweifel, dass es Schmetterlinge gibt, aber wenn man zu ihren einzelligen Vorläufern zurückspult und versucht, sie von Grund auf neu zu erschaffen, indem man jeden Schritt vom Bakterium zum Käfer wählt, wird man wahrscheinlich scheitern.

POET startet seinen zweibeinigen Agenten in einer einfachen Umgebung, z.B. auf einem flachen Weg ohne Hindernisse. Am Anfang weiß der Agent nicht, was er mit seinen Beinen machen soll und kann nicht laufen. Aber durch Versuch und Irrtum lernt der ihn steuernde Reinforcement-Learning-Algorithmus, wie er sich auf ebenem Boden fortbewegen kann. POET generiert dann eine neue zufällige Umgebung, die anders ist, aber nicht unbedingt schwieriger zu laufen. Der Agent versucht, dort zu laufen. Wenn es in dieser neuen Umgebung Hindernisse gibt, lernt der Agent, wie er über diese hinwegkommt oder sie überquert. Jedes Mal, wenn ein Agent erfolgreich ist oder stecken bleibt, wird er in eine neue Umgebung versetzt. Mit der Zeit lernen die Agenten eine Reihe von Geh- und Sprungaktionen, die es ihnen ermöglichen, durch immer schwierigere Hindernisparcours zu navigieren. Das Team fand heraus, dass das zufällige Wechseln der Umgebungen wesentlich war.

Zum Beispiel lernten die KI-Agenten manchmal, auf flachem Boden mit einem seltsamen, halb knienden Schlurfen zu gehen, weil das gut genug war. "Sie lernen nie, aufzustehen, weil sie es nie brauchen", sagt Wang. Aber nachdem sie gezwungen waren, alternative Strategien auf mit Hindernissen übersäten Böden zu erlernen, konnten sie mit einer besseren Art des Gehens – zum Beispiel beide Beine zu benutzen, anstatt eines hinter sich herzuschleifen – zum Anfangsstadium zurückkehren und diese verbesserte Version von sich selbst zu härteren Herausforderungen mitnehmen.

POET trainiert seine Bots auf eine Art und Weise, wie es kein Mensch tun würde – sie nehmen unberechenbare, unintuitive Wege zum Erfolg. In jeder Phase versuchen die Bots, eine Lösung für die Herausforderung zu finden, die ihnen gestellt wird. Indem sie mit einer zufälligen Auswahl von Hindernissen fertig werden, die ihnen in den Weg gestellt werden, werden sie insgesamt besser. Aber es gibt keinen Endpunkt in diesem Prozess, keinen ultimativen Test, den es zu bestehen oder eine hohe Punktzahl zu erreichen gilt.

Clune, Wang und eine Reihe ihrer Kollegen glauben, dass dies eine tiefgreifende Einsicht ist. Sie erforschen nun, was dies für die Entwicklung von supersmarten Maschinen bedeuten könnte. Könnte der Versuch, keinen bestimmten Weg einzuschlagen, tatsächlich ein entscheidender Durchbruch auf dem Weg zur allgemeinen künstlichen Intelligenz sein? POET inspiriert bereits andere Forscher, wie Natasha Jaques und Michael Dennis von der University of California, Berkeley. Sie haben ein System namens PAIRED entwickelt, das mit Hilfe von KI eine Reihe von Labyrinthen generiert, um eine andere KI zu trainieren, diese zu navigieren.

Rui Wang ist der Meinung, dass von Menschen entworfene Herausforderungen einen Engpass darstellen werden und dass echte Fortschritte in der KI nur dann möglich sind, wenn die KI ihre eigenen Lösungen findet. "Egal wie gut Algorithmen heute sind, sie werden immer an einem von Menschen entworfenen Benchmark getestet", sagt er. "Es ist sehr schwer vorstellbar, dass künstliche allgemeine Intelligenz daraus entsteht, weil sie an feste Ziele gebunden ist."

Die schnelle Entwicklung von KI, die sich selbst trainieren kann, wirft auch Fragen darüber auf, wie gut wir ihr Wachstum kontrollieren können. Die Idee einer KI, die immer bessere KI entwickelt, ist ein wesentlicher Teil der Mythenbildung hinter der "Singularität", dem imaginären Punkt in der Zukunft, an dem KI beginnt, sich exponentiell zu verbessern und sich unserer Kontrolle zu entziehen. Irgendwann, so warnen einige Schwarzmaler, könnte die KI beschließen, dass sie den Menschen gar nicht mehr braucht. Das hat keiner dieser Forscher im Sinn: Ihre Arbeit konzentriert sich vielmehr darauf, die heutige KI zu verbessern. Maschinen, die Amok laufen, bleiben eine weit entfernte Anti-Fantasie.

Dennoch hat Jane Wang von DeepMind Vorbehalte. Ein großer Teil der Anziehungskraft von KI für die Entwicklung von KI liegt darin, dass sie Designs und Techniken hervorbringen kann, an die die Menschen noch nicht gedacht haben. Doch Wang merkt an, dass nicht alle Überraschungen gute Überraschungen sind: "Offenheit ist per Definition etwas, das unerwartet ist." Wenn die ganze Idee darin besteht, die KI dazu zu bringen, etwas zu tun, was man nicht erwartet hat, wird es schwieriger, sie zu kontrollieren. "Das ist sowohl aufregend als auch beängstigend", sagt sie.

Clune betont auch, wie wichtig es ist, sich von Anfang an Gedanken über die Ethik der neuen Technologie zu machen. Es besteht eine gute Chance, dass von KI entwickelte neuronale Netzwerke und Algorithmen noch schwerer zu verstehen sein werden als die heutigen, bereits undurchsichtigen Black-Box-Systeme. Sind KIs, die von Algorithmen generiert werden, schwieriger auf Voreingenommenheit zu prüfen? Ist es schwieriger zu garantieren, dass sie sich nicht auf unerwünschte Weise verhalten? Clune hofft, dass solche Fragen gestellt und beantwortet werden, wenn mehr Menschen das Potenzial von selbst generierenden KIs erkennen. "Die meisten Leute in der Machine-Learning-Community sprechen nie wirklich über unseren allgemeinen Weg zu einer extrem leistungsfähigen KI", sagt er – stattdessen konzentrieren sie sich eher auf kleine, schrittweise Verbesserungen. Clune möchte wieder ein Gespräch über die größten Ambitionen der Branche beginnen.

Seine eigenen Ambitionen knüpfen an sein frühes Interesse an der menschlichen Intelligenz und ihrer Entwicklung an. Seine große Vision ist es, die Dinge so einzurichten, dass Maschinen eines Tages ihre eigene Intelligenz – oder Intelligenzen – entwickeln und sich durch unzählige Generationen von Versuch und Irrtum verbessern, geleitet von Algorithmen, die keinen ultimativen Bauplan im Kopf haben. Wenn KI anfängt, von selbst Intelligenz zu entwickeln, gibt es keine Garantie, dass sie menschenähnlich sein wird. Anstatt dass Menschen den Maschinen beibringen, wie Menschen zu denken, könnten Maschinen den Menschen neue Denkweisen beibringen.

"Es gibt wahrscheinlich eine große Anzahl von verschiedenen Möglichkeiten, sehr intelligent zu sein", sagt Clune. "Eines der Dinge, die mich an der KI begeistern, ist, dass wir vielleicht dazu kommen, Intelligenz im Allgemeinen zu verstehen, indem wir sehen, welche Variationen möglich sind. "Ich denke, das ist faszinierend. Das ist fast so, als würde man das interstellare Reisen erfinden und fremde Kulturen besuchen können." Ein Alien aus KI, sozusagen.

(bsc)