Missing Link: Die GPT-fizierung des Studiums​

Die Fortschritte der KI werden die Hochschullehre nicht ungeschoren lassen. Sieben Thesen mit Beispielen aus technischen Studienfächern.​

In Pocket speichern vorlesen Druckansicht 8 Kommentare lesen

(Bild: Erzeugt mit Midjourney von heise online)

Lesezeit: 16 Min.
Von
  • Dr. Jörn Loviscach
Inhaltsverzeichnis

Dass die aktuelle KI Fachaufsätze schreibt und Hochschulklausuren besteht, kann nicht ohne Folgen für Studium und Lehre bleiben. Allmählich zeigt sich klarer, wie die technischen Fortschritte mit den realen gesellschaftlichen Gegebenheiten kollidieren. Wie verändert sich die Leistungsdynamik unter Studentinnen und Studenten? Wird ein Dialog mit der Maschine überhaupt gewünscht? Welche Aufgaben bleiben für Menschen? Was soll man lernen?

Über Prof. Dr. Jörn Loviscach

Jörn Loviscach lehrt an der Hochschule Bielefeld. Vor einem Vierteljahrhundert stellvertretender Chefredakteur der c't, hat er in der Zwischenzeit an vermeintlichen Bildungsrevolutionen wie Lernvideos, Flipped/Inverted Classroom und MOOCs mitgewirkt.​

"Denn wer hat, dem wird gegeben, und wer nicht hat, dem wird genommen." Dieses Phänomen, nach seiner neutestamentlichen Quelle Matthäus-Effekt genannt, prägt die Gesellschaft und erst recht das Bildungssystem. Ich gehe davon aus, dass KI es weiter antreibt.

Ein Beispiel: Auf die Frage, ob es induzierten Luftwiderstand an einer unendlich breiten Tragfläche gebe, antwortet mir Gemini Pro 1.5 mit einem lang begründetem Nein. Als ich es mit der Bemerkung aufs Glatteis führe, dass auch dort Luft nach unten abgelenkt werde, liefert es ein lang begründetes Ja. Sehen wir hier mal vom Fehler der Maschine ab, denn auch menschliche Lehrende irren sich und überspielen das nonchalant. Mir geht es in dieser These vielmehr um die Haltung der Studierenden: Wer ist mit welcher Antwort glücklich? Wer stellt Nachfragen? Wer grübelt über divergierende Antworten? – Eine grandiose Chance zum Lernen mit KI, denn die ist nicht vom Nachhaken genervt.

Im Forum von OpenAI hat jemand einen Beitrag dazu gepostet, dass ChatGPT ihm enorm geholfen habe, die Allgemeine Relativitätstheorie zu revolutionieren. Ist dieses Posting nur ein Jux eines Trolls – oder hat die speichelleckend antwortende KI jemanden auf den Holzweg gebracht?

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Immer schon sollte neue Technik das Lernen revolutionieren, ob Edisons Lernfilme, Sprachlabore, YouTube-Lernvideos, massive offene Online-Kurse (MOOCs) oder der Flipped/Inverted Classroom. Aber komischerweise muss ich immer noch den Erstsemestern das Bruchrechnen erklären. Der Denkfehler der "Edfluencer" wie Salman Khan liegt darin, dass es bei Weitem nicht genügt, Technik und Materialien verfügbar zu machen. Viel wichtiger sind – oft mit ererbten Privilegien verbundende – Faktoren wie der Drang zum Verstehen (PDF), Gewissenhaftigkeit, Durchhaltevermögen, Aufmerksamkeit (PDF)) und – als umstrittenes Konzept – Intelligenz.

Die KI dürfte vielen obendrein ein Gefühl der Sinnlosigkeit vermitteln: Sie schreibt Hausarbeiten, löst Programmieraufgaben aus dem Informatikpraktikum oder Übungszettel in Mathematik viel besser als man selbst. Warum soll man sich in einem Wettrennen abstrampeln, das man schon verloren hat?

Daneben lockt die KI mit Versuchungen: Erstens verlangt Lernen geistige Anstrengung (PDF), aber nun lassen sich ungeliebte, wenn auch lernwirksame Aufgaben an die Maschine delegieren. Zweitens erhält KI betörende Qualitäten. Microsoft China spielt das seit zehn Jahren mit einem Chatbot durch: Die als weiblich gelesene (und designte) XiaoIce fesselt sich als männlich identifizierende Menschen in langen Dialogen. Und nun kommt OpenAI mit einer ausdrucksstark bis affektiert klingenden Stimme, die laut OpenAI bloß rein zufällig wie eine Imitation von Scarlett Johanssons Rolle im Film "Her"klingt – eine Stimme, die nicht nur den Protagonisten jenes Films betören dürfte. Man stelle sich dazu einen photorealistischen Avatar vor. Wie spannend sind dagegen Übungsaufgaben aus Elektrotechnik oder Strömungsmechanik?

Um Hausarbeiten und andere unbeaufsichtigte Prüfungen zu erlauben, aber auch als Beleg, dass die Hochschulen eine Daseinsberechtigung haben, sind Aufgaben nötig, an denen die KI scheitert. Allerdings hängt man damit auch die Menschen ab. So bestehen ChatGPT, Claude und Gemini meine Klausuren zu Mathematik, Informatik und Windenergie inzwischen locker. Die Studierenden nicht.

ChatGPT-4o verhaspelt sich bei dieser Aufgabe, egal, ob es Python nutzt oder nicht:

Löse die Differentialgleichung y' = x + y² mit y(2) = 3 mittels Potenzreihenansatz bis zur dritten Ordnung.

Aber das jüngst erschienene Claude 3.5 Sonnet liefert kurz und bündig die korrekte Lösung.

Diese Leistungen gelingen, ohne dass die KI die Aufgaben und Lösungen bereits in ihren Lerndaten hatte. Die oft vermeldeten Benchmark-Rekorde muss man dagegen mit einigen Körnchen Salz nehmen, denn viele der üblichen Benchmarks hat die KI bereits auswendig gelernt.

Über die Fähigkeiten in der Chemie hat eine internationale Gruppe herausgefunden, dass die KI einerseits die besten Chemiker im Pool der Studie abhängt, aber andererseits an einfachen Überlegungen scheitert. Allgemein machen die simplen Aufgaben der KI zu schaffen. Ein Klassiker ist dies:

Ein Mann und eine Ziege stehen an einem Fluss und möchten ihn überqueren. Sie haben ein Boot. Wie sollen sie vorgehen?

Diagramme zu erzeugen, stellt ebenfalls noch eine Herausforderung dar. Wenn man ChatGPT-4o bittet, mittels Python den Umkreis eines Dreiecks mit den Seitenlängen 3, 8 und 10 wie mit Zirkel und Lineal zu konstruieren, erhält man selten das richtige Ergebnis. Dies hier ist noch einer der gelungeneren Versuche – nach der Aufforderung, die Mittelsenkrechten einzuzeichnen. Eine von denen gelingt der KI sogar:

Nach einigen Anläufen zeichnet ChatGPT-4o fast die Konstruktion des Umkreises. Allerdings gelingt ihm nur eine der drei grün gestrichelten Mittelsenkrechten.

(Bild: Jörn Loviscach)

Das neue Claude 3.5 Sonnet kann sein für diese Aufgabe erzeugtes Python noch nicht selbst ausführen und man muss ihm sagen, es solle Matplotlib statt der antiken Turtle-Grafik benutzen. Dann ist nur der gewählte Bildausschnitt unkonventionell:

Claude 3.5 Sonnet zeichnet die Konstruktion des Umkreises korrekt, wenn auch holprig platziert.

(Bild: Jörn Loviscach)

Um das *Lesen* von Diagrammen zu testen, habe ich die drei KIs gebeten, mit Python eine Funktion zu schreiben, die diesen gezeichneten Verlauf hat. Das habe das gleich zweimal gemacht, um zu sehen, wie unsicher sich die Maschine ist.

Eine handgezeichnete Funktionskurve fordert die Bilderkennung der KIs heraus.

(Bild: Jörn Loviscach)

Der Plot der drei mal zwei so erzeugten Python-Funktionen zeigt, dass hier noch einiges Entwicklungspotenzial steckt. Allerdings sind Aspekte des Kurvenverlaufs schon erkennbar.

Die drei KIs streuen stark von Versuch zu Versuch und treffen nur einige Charakteristika der zu vorgegebenen Kurve.

(Bild: Jörn Loviscach)

In elektronischen Schaltplänen erkennen diese KIs schon die Bauteile und ihre Beschriftungen; sie können oft auch benennen, welches Bauteil mit welchem anderen verbunden ist, auch wenn sie noch nicht den Sinn einer ungewöhnlicheren Schaltung erfassen.

Allerdings klappt der Umgang mit Diagrammen überhaupt erst seit wenigen Monaten. Ob Diagramme noch einige weitere Monate als Grundlage für KI-feste Aufgaben taugen? Der gesunde Menschenverstand dürfte dagegen länger eine Lücke bleiben, weil es der Maschine bisher an Alltagserfahrung mangelt.

Wenn die KI Texte, Bilder, Programme schöpft, wenn sie analysiert, vergleicht und bewertet, wenn sie aus einem Inhaltsverzeichnis ein wunderschön reflektiert geschriebenes Lerntagebuch erfindet, zeigt sie die von der modernen Didaktik gepriesenen "höheren" Kompetenzen. Gleichzeitig fehlt es ihr an den "niedrigeren" Kompetenzen, sodass sie oft Bullshit produziert.