Diese KI lernt, indem sie sich selbst neuen Herausforderungen stellt

Seite 3: Zeit, eine neue Art von Lehrer auszubilden

Inhaltsverzeichnis

Als Erstes baut man ein Gehirn, dann muss man es lehren. Aber Computergehirne lernen nicht so wie unsere. Unsere Gehirne sind fantastisch darin, sich an neue Umgebungen und neue Aufgaben anzupassen. Heutige KIs können Herausforderungen unter bestimmten Bedingungen lösen, versagen aber, wenn sich diese Bedingungen auch nur ein wenig ändern. Diese Unflexibilität behindert das Bestreben, eine allgemeine KI zu entwickeln, die in einer Vielzahl von Szenarien nützlich sein kann, was ein großer Schritt auf dem Weg zu wirklich intelligenten Systemen wäre. Für Jane Wang, Forscherin bei der Google-Gründung DeepMind in London, besteht der beste Weg, KI flexibler zu machen, darin, sie dazu zu bringen, diese Eigenschaft selbst zu lernen. Mit anderen Worten: Sie möchte eine KI bauen, die nicht nur bestimmte Aufgaben erlernt, sondern auch weiß, wie diese Aufgaben so erlernt werden, dass sie sich an neue Situationen anpassen lassen.

Forscher versuchen schon seit Jahren, KI anpassungsfähiger zu machen. Wang ist der Meinung, dass eine KI, die dieses Problem selbst löst, einen Teil des Trial-and-Error-Verfahrens vermeidet, das bei einem von Hand entwickelten Ansatz erforderlich wäre: "Wir können nicht erwarten, dass wir sofort über die richtige Antwort stolpern." Sie hofft, dass wir dabei auch mehr darüber lernen, wie Gehirne funktionieren. "Es gibt immer noch so viel, was wir nicht über die Art und Weise verstehen, wie Menschen und Tiere lernen", sagt sie. Es gibt zwei Hauptansätze, um solche Lernalgorithmen automatisch zu generieren. Beide beginnen mit einem bestehenden neuronalen Netzwerk und verwenden KI-Verfahren, um ihm etwas beizubringen.

Der erste Ansatz, der von Wang und ihren Kollegen bei DeepMind und gleichzeitig von einem Team bei OpenAI entwickelt wurde, verwendet rekurrente neuronale Netzwerke. Diese Art von Netzwerken kann so trainiert werden, dass die Aktivierungen ihrer Neuronen – grob vergleichbar mit dem Feuern von Neuronen in biologischen Gehirnen – jede Art von Algorithmus codieren. DeepMind und OpenAI haben sich dies zunutze gemacht, um ein rekurrentes neuronales Netzwerk zu trainieren, das Reinforcement-Learning-Algorithmen generiert, die einer KI sagen, wie sie sich verhalten soll, um bestimmte Ziele zu erreichen.

Das Ergebnis ist, dass die Systeme von DeepMind und OpenAI nicht einen Algorithmus lernen, der eine bestimmte Aufgabe löst, wie z. B. das Erkennen von Bildern, sondern einen Lernalgorithmus lernen, der auf mehrere Aufgaben angewendet werden kann und sich dabei anpasst. Es ist wie das alte Sprichwort, jemandem das Fischen beizubringen: Während ein von Hand entwickelter Algorithmus eine bestimmte Aufgabe erlernen kann, werden diese KIs dazu gebracht, selbst zu lernen. Und einige von ihnen sind besser als die von Menschen entworfenen.

Der zweite Ansatz stammt von Chelsea Finn von der University of California, Berkeley, und ihren Kollegen. Das sogenannte modellagnostische Meta-Lernen (MAML) trainiert ein Modell mit zwei ineinander verschachtelten Machine-Learning-Prozessen. Grob gesagt, funktioniert es folgendermaßen. Der innere Prozess in MAML wird auf Daten trainiert und dann getestet – wie üblich. Aber dann nimmt das äußere Modell die Leistung des inneren Modells – wie gut es z. B. Bilder identifiziert – und verwendet diese, um zu lernen, wie man den Lernalgorithmus des Modells anpasst, um die Leistung zu steigern. Es ist so, als ob man einen Schulinspektor hätte, der über eine Reihe von Lehrern wacht, von denen jeder verschiedene Lerntechniken anbietet. Der Schulinspektor prüft, welche Techniken den Schülern helfen, die besten Ergebnisse zu erzielen, und passt sie entsprechend an.

Mit diesen Ansätzen entwickeln die Forscher eine KI, die robuster ist und allgemeiner agiert und dabei mit weniger Daten schneller lernen kann. Finn möchte zum Beispiel, dass ein Roboter, der gelernt hat, auf flachem Boden zu laufen, in der Lage ist, mit minimalem zusätzlichen Training auf das Laufen an einem Abhang oder auf Gras umzustellen oder eine Last zu tragen.

Letztes Jahr haben Clune und seine Kollegen Finns Technik erweitert, um einen Algorithmus zu entwickeln, der mit weniger Neuronen lernt, damit er nicht alles überschreibt, was er zuvor gelernt hat – ein großes ungelöstes Problem beim maschinellen Lernen, das als "katastrophales Vergessen" bekannt ist. Ein trainiertes Modell, das weniger Neuronen verwendet, ein sogenanntes Sparse-Modell, hat mehr ungenutzte Neuronen übrig, die beim erneuten Training neuen Aufgaben gewidmet werden können, was bedeutet, dass weniger der bereits verwendeten Neuronen überschrieben werden. Clune fand heraus, dass die Herausforderung, mehr als eine Aufgabe zu erlernen, dazu führte, dass die KI ihre eigene Version eines Sparse-Modells entwickelt, das die von Menschen entworfenen Modelle übertraf.

Wenn wir KI dazu bringen wollen, sich selbst zu erschaffen und zu trainieren, dann sollte KI auch ihre eigenen Trainingsumgebungen generieren – die Schulen und Lehrbücher ebenso wie die Unterrichtspläne, sozusagen. Im vergangenen Jahr gab es eine ganze Reihe von Projekten, bei denen KI auf automatisch generierten Daten trainiert wurde. Gesichtserkennungssysteme werden zum Beispiel mit KI-generierten Gesichtern trainiert. KIs lernen auch, wie sie sich gegenseitig trainieren können. In einem aktuellen Beispiel arbeiteten zwei Roboterarme zusammen, wobei der eine Arm lernt, immer schwierigere Aufgaben zum Stapeln von Blöcken zu stellen, wodurch der andere das Greifen und Erfassen von Objekten trainiert.

Clune fragt sich sogar, ob die menschliche Intuition darüber, welche Art von Daten eine KI benötigt, um zu lernen, falsch sein könnte. Er und seine Kollegen haben zum Beispiel sogenannte generative Lernnetzwerke entwickelt, die lernen, welche Daten sie generieren sollten, um beim Training eines Modells die besten Ergebnisse zu erzielen. In einem Experiment verwendete er eines dieser Netzwerke, um einen Datensatz handgeschriebener Zahlen anzupassen, der häufig zum Trainieren von Bilderkennungsalgorithmen verwendet wird. Was dabei herauskam, sah ganz anders aus als der ursprüngliche, von Menschen erstellte Datensatz: Hunderte von nicht ganz korrekten Ziffern, wie die obere Hälfte der Zahl Sieben oder etwas, das wie zwei miteinander verschmolzene Ziffern aussah. Einige KI-generierte Beispiele waren überhaupt nicht zu entziffern. Trotzdem leisteten die KI-generierten Daten gute Arbeit beim Training des Handschrifterkennungssystems, um die tatsächlichen Ziffern zu identifizieren.