Kurzes Nickerchen für KI: Warum auch Roboter von einem Schläfchen profitieren
Ergebnisse aus der Hirnforschung zeigen, wie wichtig selbst kurze Schlafphasen für das Gehirn sind. Nicht nur Menschen, auch Maschinen profitieren von Schlaf.
(Bild: Gorodenkoff / Shutterstock.com)
Schon ein kurzes Nickerchen kann einen synaptischen Reset bewirken, der dem Gehirn hilft, neue Sinneseindrücke, Gedanken und Erfahrungen besser zu verarbeiten und zu speichern. Das haben Forschende des Universitätsklinikums Freiburg und der Universität Genf erst kürzlich in einer neuen Studie gezeigt.
Die Forschungsergebnisse sind aber nicht nur für die Medizin interessant. Mechanismen, die vom biologischen Schlaf inspiriert sind, könnten auch die Performance von großen Sprachmodellen und von Robotern deutlich verbessern.
Warum Sprachmodelle schlafen sollten
„Schlafen“ ist dabei nur im übertragenen Sinne zu verstehen. Forschende verstehen darunter einen Betriebsmodus der KI, in dem sie keine neuen Daten von außen empfängt, sondern bereits empfangene Input-Daten noch einmal durchgeht, um neu Gelerntes zu verstärken und Wissenslücken durch neue – relevante – Fakten zu verkleinern.
Videos by heise
Denn große Sprachmodelle sind eigentlich ziemlich vergesslich. Sie können zwar in einem laufenden Chat aus konkreten Beispielen lernen – beispielsweise: Schreibe mir eine Bewerbungsmail, hier sind drei Beispiele für gute Formulierungen (das sogenannte In Context Learning). Aber wenn man die Chatsession beendet, sind – normalerweise – sämtliche Lernfortschritte wieder weg.
Der künstliche Schlaf soll genau dieses Problem lösen: die neu aus Kontext gelernten Fähigkeiten in das Modell einzuspeisen, sodass es darauf auch in einer neuen Chatsession zurückgreifen kann. Und das, ohne bereits trainierte Fähigkeiten versehentlich zu überschreiben und zu löschen.
Was KI-Schlaf leisten soll
Das lässt sich auf einer allgemeinen, abstrakten Ebene natürlich leicht aufschreiben: Die Maschine soll in der Offline-Phase aus chaotischen, verrauschten Input-Daten wichtige Informationen herausdestillieren. Im besten Fall erkennt sie in den Input-Daten aus der aktiven Phase verborgene Muster, aus denen sie zusätzliches Wissen gewinnt. Aber wie unterscheidet die Maschine wesentliche Informationen von unwesentlichen? Wie erkennt sie „verborgene Muster“? Und wie speichert sie das neu erworbene Wissen?
Wie KI-Schlaf praktisch umgesetzt werden kann
Die Frage wird von Forschenden bereits seit einigen Jahren diskutiert. In diesem Nature Paper von 2022 wird eine Lösung gezeigt, die die Forschenden Sleep Replay Consolidation nennen. In der Schlafphase wird einem neuronalen Netz der Input aus der Wachphase noch einmal vorgespielt. Allerdings verarbeitet das Netz diesen Input jetzt anders: Künstliche Neuronen, die aufgrund des Inputs gleichzeitig aktiviert werden, bekommen eine stärkere Verknüpfung. Das sogenannte Hebbsche Lernen überträgt neu gelernte Zusammenhänge, sodass die KI auch schwierigen Input besser verarbeiten kann – also besser generalisiert.
Vom künstlichen Schlaf zu künstlichen Träumen
In dem 2022 veröffentlichten Paper diskutieren die Forschenden eine ganze Reihe möglicher weiterer Verbesserungen, die sich stärker am biologischen Vorbild orientieren. Eine Idee ist zum Beispiel, die Traumphase nachzubilden, indem den im künstlichen Schlaf noch einmal eingespielten Daten Rauschen und andere Zufallselemente zugefügt werden.
Mittlerweile sind diese Überlegungen schon recht konkret geworden. In dem Paper Language Models Need Sleep: Learning to Self‑Modify without Forgetting für die Fachtagung ICLR 2026 (International Conference on Learning Representations) stellen Forschende einen spannenden Schlaf-Mechanismus vor, der es Sprachmodellen erlaubt, kontinuierlich dazuzulernen.
Die Idee ist, ein zweites, kleineres KI-Modell in der Wachphase mitlaufen zu lassen, das aus dem Input des Users und dem Output des Modells aktuelle Zusammenhänge lernt – etwa Muster in vom User bereitgestellten Beispielen. Daraus erzeugt das kleine Modell dann synthetische Trainingsdaten, die in der Offline-Phase – beim Träumen – dazu verwendet werden, die Fähigkeiten des großen Modells zu erweitern.
Auch Roboter können Schlafen
Kontinuierliches Lernen ist eine Fähigkeit, die besonders für Serviceroboter spannend wäre. Denn in der Regel werden diese Maschinen nur für spezifische Aufgaben trainiert und scheitern, wenn sie in eine Situation geraten, die zu sehr von ihren Trainingsdaten abweicht.
Das liegt daran, dass „smarte“, KI-gesteuerte Roboter in der Regel mit Verstärkungslernen trainiert werden. Dabei startet der Roboter mit einer Abfolge rein zufälliger Aktionen. Ist diese Kette zufälliger Aktionen erfolgreich – sodass der Roboter seine Aufgabe löst –, wird sie belohnt. Scheitert der Roboter, wird die Sequenz von Aktionen als schlecht bewertet. Die Maschine lernt so recht schnell eine sogenannte Policy. Eine Vorgehensweise, die mit der höchsten Wahrscheinlichkeit im weiteren Verlauf zum Ziel kommen wird.
Es gibt zwar eine Menge Ideen, wie man aus dieser Sackgasse wieder herauskommen könnte – zum Beispiel mit Robotern, die mit großen Transformer-Modellen gesteuert werden. Aber die Forschung dazu steckt noch in den Anfängen, auch wenn Elon Musk etwas anderes erzählt.
Britische Forschende kamen jedoch 2024 auf die Idee, auch für Roboter eine Lernphase im Schlaf einzuführen (Learning while Sleeping). Während dieser Schlafphase kehrten sie den Trainingsmechanismus um. Beim Invers Reinforcement Learning versucht der Roboter während der Schlafphase im übertragenen Sinne zu lernen, welche Absicht hinter dem Feedback der menschlichen Trainer steckte. Mit den Daten aus dieser zusätzlichen Abstraktion verbesserten sie dann die Policy des Roboters, sodass sie robuster auf unbekannte Umstände reagieren können.
Dieser Beitrag ist zuerst auf t3n.de erschienen.
(wst)