Bildung: Mehr Input

Seite 2: An EdTech wird lange geforscht

Inhaltsverzeichnis

Die EdTech-Branche kann dabei auf lange Jahre der Forschung aufsetzen. Bereits Ende der 1980er entwickelten KI-Wissenschaftler, beispielsweise an der Carnegie Mellon University, sogenannte "kognitive Tutoren". Sie setzen auf regelbasierten Systemen auf, die zum Beispiel algebraische Gleichungen selbstständig lösen können. Die kognitiven Tutoren können aber mehr. Sie kennen nicht nur einen Lösungsweg, sondern viele verschiedene, erklärt Ulrich Hoppe von der Universität Duisburg-Essen, der bereits seit den 1990er-Jahren an intelligenten Unterrichtssystemen forscht. Stellt solch ein System also dem Schüler eine Mathematikaufgabe, kann es bei jeder Eingabe erkennen, ob dieser Schritt zu einer Lösung führt. Andere "Constraint based"-Systeme kennen zwar nicht den richtigen Lösungsweg, können aber schon frühzeitig erkennen, wenn ein vom Schüler vorgeschlagener Lösungsweg in die Irre läuft.

Fortschritte in der Verarbeitung natürlicher Sprache haben zudem zur Entwicklung agentenbasierter Dialogsysteme geführt, sagt Hoppe. Schon mit einfachen Mitteln ließen sich hier interessante Ergebnisse erzielen. So hätten Studenten von ihm ein System entwickelt, das angehende Allgemeinmediziner schulen soll. Die Patienten werden in diesem Fall von Chatbots "gespielt" und reagieren auf das Verhalten der angehenden Mediziner. "Ein Chatbot spielt zum Beispiel eine alte Dame, die nicht gern über ihre Herzinsuffizienz sprechen möchte, weil sie Angst hat, ins Pflegeheim zu kommen", sagt Hoppe. Die Übenden müssten lernen, ein Vertrauensverhältnis zu diesem Bot aufzubauen. Nur dann bekämen sie die nötigen Informationen für ihre Diagnose.

Die Schwierigkeit in all diesen KI-Lehrern liegt allerdings im Detail. Wie bewertet man Lernfortschritt? Ist eine falsche Antwort ein zufälliger Ausrutscher, oder deutet sie auf eine grundlegende Wissenslücke hin? Zudem sind nicht alle Fragen immer gleich schwer. Spricht aber die Lösung von einer sehr schwierigen Aufgabe für mehr Lernfortschritt als die Lösung von drei mittleren Aufgaben in derselben Zeit? Hat der Lernende bei einem Multiple-Choice-Test das richtige Ergebnis vielleicht zufällig geraten? Aus Lernfortschritt, Sensordaten und Testergebnissen muss die Software ein möglichst präzises Modell des Lernenden und seiner Fortschritte erstellen. "Die Effizienz eines adaptiven Lernsystems hängt zentral davon ab, wie gut diese Modelle sind", sagt DFKI-Forscher Igel.

Dabei kommt ein ganzer Zoo von Methoden zum Einsatz: Hidden-Markov-Modell, Bayes-Netzwerke oder Entscheidungsbäume. Tiefe neuronale Netze, wie sie zum Beispiel den Go-Weltmeister schlugen, sind jedoch eher selten zu finden, denn die neuen Methoden des maschinellen Lernens, die zum Beispiel auch bei autonom fahrenden Autos verblüffend schnell Fortschritte erzielen, haben eine Achillesferse: Sie sind eine Black Box, die Wege zu ihren Entscheidungen oft unergründlich. Dabei ist genau diese Information wichtig. "Man will ja wissen, warum ein Lernender eine bestimmte Aufgabe nicht lösen kann – und wie man das ändern kann", sagt Ulrich Hoppe. "Diesen Zusammenhang kann ich bei einem mit Deep Learning erstellten neuronalen Netz nicht herstellen."

Auch das DFKI setzt daher nicht auf die neuen Technologien des Maschinenlernens. Es programmiert im Kern Expertensysteme, die das Wissen von Pädagogen und Psychologen in Regeln abbilden: Wenn der Schüler sich langweilt, muss man ihn durch schwierigere Aufgaben fordern. "Das, was die Software dann empfiehlt, ist allerdings oft sehr holzschnittartig", räumt Igel ein. "Denn oft bekommen wir von den Experten auch die Antwort: Was man in diesem Fall am besten tut, ist stark vom Einzelfall abhängig. Und das können wir mit regelbasierten Systemen nur unzureichend abbilden."