Missing Link: Die GPT-fizierung des Studiums​

Seite 2: These 3: Der Dialog mit der Maschine nervt.

Inhaltsverzeichnis

Das Gespräch mit Künstlicher Intelligenz entpuppt sich als mühselig und frustrierend. Man stellt eine Frage, wartet auf die Antwort, überprüft diese, stellt weitere Fragen – ein ermüdendes Hin und Her. Schon allein, einen längeren Text zu tippen oder gar zu diktieren, verlangt viel Konzentration. "Und dann noch zu diskutieren über Themen wie Mathematik und Mechanik." Plötzlich gewinnt die klassische Websuche an Attraktivität.

Dieser Stress durch den Dialog mit KI könnte allerdings ein selbst gemachtes Problem der Leute meines Alters sein, welche die KI und insbesondere die Spracherkennung alter Tage verinnerlicht haben: präzise formulieren, sauber sprechen, keine Vertipper oder Versprecher machen – aber das ist gar nicht mehr nötig! Wer frisch mit KI anfängt, füttert ungeniert in die Maschine: y''+5y=Sinus oder Basisschaltg Verstärung 20 (mit Tippfehlern). Auch das verdauen ChatGPT & Co. inzwischen.

Auf Knopfdruck liefert die KI Vorlesungsskripte mit den gewünschten Inhalten und im gewünschten Stil. Wenn einem das Resultat nicht gefällt, sagt man der Maschine, was sie ändern soll:

Knapper! Praxisrelevante Beispiele!

Meine neuen Skripte für das laufende Semester stammen Unterabschnitt für Unterabschnitt aus ChatGPT-4o und Claude 3 Opus, wenn auch mit händischen Änderungen. Die Technik macht nicht bei den Skripten halt: Erste Anbieter wie Simpleshow und Synthesia erzeugen Vortragsvideos.

Die Arbeitsersparnis vornehmlich bei Videos dürfte enorm sein, man denke nur an Fehlerkorrekturen und Updates. Aber den Studenten signalisiert diese automatische Produktion, dass sie ihre Referate und Hausarbeiten auf gleiche Art abhaken sollten. Dass vielleicht einige Professoren die mit KI gesparte Zeit didaktisch sinnvoll investieren, dürfte übersehen werden.

Vielleicht ist es psychologisch wirksam, Skripte und Video *nicht* per KI zu produzieren. Das wird nun zu einem teuren Signal für Wertschätzung, gewissermaßen ein selbst gebackener, etwas missratener Kuchen. Werden Studenten solche Materialien mehr achten und sich mehr damit auseinandersetzen? Die Forschung kennt zumindest den "Teacher Enthusiasm" als wirksam für die Lernmotivation.

Die an den Hochschulen gängigen Lernplattformen wie ILIAS und Moodle sind als PDF-Schleudern verrufen. Sie dienen nicht zuletzt dazu, zusammenkopierte Lehrbuchseiten urheberrechtskonform vor der Öffentlichkeit zu verbergen. Aber jetzt erzeugt die KI solche Materialien rechtefrei, maßgeschneidert und auf Arabisch, Ukrainisch oder in einfacher Sprache.

Ein Student von mir hat entdeckt, dass man Bing Copilot um eine Mathematikklausur in meinem Stil bitten kann. Die anderen großen KIs zieren sich dabei noch (und das, obwohl etwa der ClaudeBot schon zigtausendmal meine Webseiten besucht hat). Die bisher mühevoll auf Lernplattformen angelegten Aufgabensammlungen werden einen schweren Stand gegen eine KI haben, die ausführliche Bewertungen liefert und Lösungswege erklärt.

Google erreicht bei der Kontextlänge inzwischen zwei Millionen Tokens, also mehrmals Tolstois "Krieg und Frieden". Folglich kann die KI in einer einzigen Anfrage das gesamte bisherige Studium verarbeiten – alle Skripte, alle Hausarbeiten und die Prüfungsordnung mit dem offiziellen Curriculum. Das gesamte Studium könnte in einem einzigen, kontinuierlichen Chat ablaufen. Wo bisherige Lernplattformen eher selten mittels "Learning Analytics" ein allenfalls grobes "Learner Model" pflegen, wird die KI zur Partnerin, die einen das ganze Studium begleitet. Einige GPTs aus dem Store von OpenAI sowie Googles Projekt LearnLM-Tutor zeigen, wohin die Reise geht.

Das hört sich nach einem datenschutzrechtlichen Drama an. Allerdings würden die Daten nicht gelernt werden müssen; sie stehen nur im Chatverlauf. Eine neue Hürde hat aber der AI Act der EU errichtet: KIs, die zur "Steuerung des Lernprozesses" dienen, gelten als Hochrisikosysteme und unterliegen besonderen Anforderungen.

Lernplattformen sind ein Weg, Millionen an Euro zu versenken, denn trotz Featuritis halten sie nicht Schritt mit der Zeit und verlangen massive Aufwände, um alte Inhalte auf neue Systeme zu bringen. Vielleicht wird es endlich offiziell so, wie es schon immer hätte sein sollen und für die Studierenden auch immer war: Die Lernplattform ist das Internet. Always has been.

Wenn ein neues Thema aufkommt, reagieren die politischen Kreise reflexartig: "Ein neues Schulfach muss her!" Entsprechend sollen sich Studenten mit den technischen Details der KI beschäftigen. Aber ist das wirklich sinnvoll?

"Prompt Engineering", also Sprachmodelle durch geschickte Eingaben zu optimalen Antworten zu bewegen, ist eine übermäßig gehypte Kunst. Klappt das, was heute mit GPT funktioniert, morgen noch mit Claude? Inzwischen werden die Tricks abstrus, zum Beispiel mit dem Logbuch der Enterprise anzufangen oder Denk-Zwischenschritte als Kommentare in Python-Code zu verstecken. Obendrein werden bisherige Tricks wie das Denken mit Zwischenschritten in die Sprachmodelle eingebaut. Was sollen Studenten über solche Tricks lernen, was nicht über kurz oder lang in der Software direkt eingebaut ist – oder von ihr gelernt ist?

Auch die Grundlagen neuronaler Netze ergeben außerhalb von Informatik-Studiengängen wenig Sinn. Was ein einzelnes künstliches Neuron rechnet, sagt einem nichts über das Zusammenspiel von Milliarden davon. Aktivierungsfunktionen, Backpropagation, Faltung sind zwar spannend, aber helfen einem nicht in der Anwendung. In der Führerscheinprüfung kommen aus gutem Grund nicht die Redoxreaktionen in Motor oder Batterie vor.

Vielleicht hat bald endlich Excel als jedermanns umständliche und unübersichtliche Datenverarbeitung ausgedient, weil man sich Programme von der KI maßgeschneidert schreiben lassen kann. Dann wären Grundkenntnisse in Python sinnvoll, um nachvollziehen zu können, was die Maschine da programmiert. Sogar das Finetuning von Modellen ist inzwischen für Nichtexperten machbar. Aber wann werden wir solche Aufgaben ohnehin vollständig der Maschine anvertrauen?

Die bisherige (Des-)Informationsflut wächst durch die Sprachmodelle zu einem Tsunami: Sockpuppets (eine Person tritt unter vielen vorgetäuschten Namen auf) müssen nicht mehr händisch betrieben werden und der Output an Forschungsarbeiten explodiert.

Man kann versuchen, den Teufel mit Beelzebub auszutreiben und die (Des-)Information durch KI prüfen zu lassen. Aber wer trainiert jene Überwachungs-KI und mit welchen Daten? Wem gehört sie? Wer zahlt wie dafür? Das klassische Bildungsideal ist dagegen das des mündigen Bürgers. Natürlich ist auch der nicht vor Fehlern gefeit und schon gar vor Indoktrination durch Schule und Hochschule. Allerdings bewegt sich das in anderen Zeitdimensionen als denen, in denen die Internetwirtschaft agiert, was vielleicht für mehr Robustheit sorgt.

Es sind keine neuen Skills nötig, sondern Prinzipien des klassischen wissenschaftlichen Arbeitens: zielgerichtetes und methodisch kontrolliert vorgehen; Objektivität, Validität, Reliabilität anstreben; Aussagen fundieren; Resultate transparent und überprüfbar machen.

Die klassische Frage "Wer hat das geschrieben?" ist im Zeitalter von KI allerdings chancenlos: Bei Berechnungen oder Erörterungen ist die KI selbst die Quelle. Und wenn die KI auf eine nachprüfbar menschliche Quelle verweist, weiß man noch immer nicht, wie sehr man "jener" vertrauen kann. Dass Einstein die kosmologische Konstante auf 0 setzen wollte, heißt noch lange nicht, dass das stimmt.

Was wir mehr als jemals zuvor benötigen, ist die Fähigkeit, Aussagen als solche zu prüfen – wegen der Flut zumindest überschlägig und/oder mit Stichproben an heiklen Stellen: das Schätzen in den Ingenieurwissenschaften, die "Sanity Checks" beim Programmieren, eine geschulte Intuition "Sieht plausibel aus!" oder aber "Das kann doch was nicht stimmen!", auf die hin man dann nachbohrt. Das ist allerdings – insbesondere, wenn es intuitiv statt mit langem Grübeln und Googeln passiert – klassisches Expertentum. Das verlangt Übung und Erfahrung.

An der KI zu mäkeln, ist Klagen auf hohem Niveau. Hätte man sich vor fünf Jahren vorstellen können, mit einer Maschine Diskussionen über Inhalte des Studiums zu führen, samt Code und Formeln? In mehr und mehr Anwendungsbereichen überschreitet KI die Grenze zur Nützlichkeit. Mit einer Analogie gesprochen: Von einer Flugzeugkonstruktion, die nur fast abhebt, ist es technisch ein kleiner Schritt zu einer, die das wirklich tut – ein kleiner Schritt mit massiven Folgen.

Im Team mit der KI schreibe ich mehr Programme als je zuvor. Sie nutzt Software-Bibliotheken und Code-Raffinessen, die ich vorher nie gesehen habe. Zwar sind die Ergebnisse nicht perfekt; sie bilden aber eine solide Grundlage. KI hilft mir enorm beim Verfassen von Skripten und von Unterlagen zur Studiengangplanung sowie beim Erfinden von Aufgaben. Dieser Artikel ist mit Whisper 2 zur Transkription eines Vortrags und ChatGPT-4o zum Umformulieren auf Schriftsprache entstanden. Zwar habe ich jeden Satz neu geschrieben, aber das war immer noch deutlich schneller, als mit einem leeren Blatt anzufangen.

Ich erfreue mich an schönen Illustrationen und diskutiere mit der Maschine über chinesische Grammatik. Überhaupt ist die KI ein Babelfisch: Im Seminar diktiere ich ihr und sie schreibt mein Diktat in sprachlich gesäuberter Form samt Formelzeichen auf das Beamer-Bild – mit Übersetzungen für Nichtmuttersprachler.

Ohne Glaskugel ist schwer zu sagen, in welchen Bereichen die KI die Grenze zur Nützlichkeit als Nächstes überschreitet und was das für die Hochschulbildung bedeutet. Vielleicht eröffnen sich viele Anwendungsgebiete auf einen Schlag, zum Beispiel, indem die KI bessere Weltmodelle aufbaut und daran begründet und plant oder indem sie, weil die Lerndaten inzwischen knapp werden, durch Beobachtung lernt.

(vza)