Missing Link: Von künstlicher Intelligenz und künstlich intelligentem Lernen

Künstliche Intelligenz an der Uni: Das muss mehr sein als die leidige Diskussion über KI-generierte Semesterarbeiten, sondern ein spannendes Experiment.

In Pocket speichern vorlesen Druckansicht 18 Kommentare lesen

(Bild: Black Jack/Shutterstock.com)

Lesezeit: 9 Min.
Von
  • Paul Goldschmidt
Inhaltsverzeichnis
Über Paul Goldschmidt

Paul Goldschmidt studiert Maschinenbau und Produktionstechnik in Hamburg. 2021 war er Finalteilnehmer des Bundeswettbewerbs Künstliche Intelligenz (BWKI) und hat dafür ein Modell zur politischen Analyse von Twitter-Accounts entwickelt, welches mit den Tweets deutscher Politiker angelernt wurde. Darüber hinaus leitet Goldschmidt ein Software-Startup in Heidelberg, welches er mit 18 Jahren gegründet hat.

Für die meisten Studierenden herrscht zweimal im Jahr quasi der Ausnahmezustand: Prüfungsphase. Sechs Monate Lernaufwand kompakt in zwei Wochen voller Leistungserhebungen komprimiert, sich möglichst viel in letzter Sekunde beibringen und dann kurz darauf auf Papier bringen. Immer mehr nimmt dabei auch die omnipräsente künstliche Intelligenz Einfluss auf die Art, wie und was gelernt wird – und vor allem, wie das Wissen geprüft wird.

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

ChatGPT und Co. sind bereits mitten im Studium angekommen und wirbeln das System gehörig durcheinander: Generative KIs helfen uns in den technischen Fächern nicht nur beim Recherchieren und fassen Studien zusammen, sondern optimieren die Struktur von CAD-Modellen oder erstellen Bilder von verschiedenen Fehlertypen in Produktionsanlagen.

Die Technik und die zahllosen Tools bieten ein breites Spektrum von Möglichkeiten, mit Wissen und Informationen zu jonglieren, neue Herangehensweisen an alten Herausforderungen auszuprobieren und erlerntes Wissen effizienter einsetzen zu können.

Doch viele Hochschulen und Dozenten verharren in einer Art Schockstarre und verengen die Diskussion reflexartig auf ein plakatives Problem: das Potenzial des unfairen Vorteils bei (Online-)Prüfungen und insbesondere bei Haus- und Abschlussarbeiten. Die vermeintlichen Lösungen sind wenig originell und versuchen lediglich zu verhindern, was sich nicht mehr verhindern lässt: dass bislang aufwendige Bachelor- und Master-Arbeiten rasch von oder mit Hilfe generativer KI zusammengeschrieben werden.

Und das ist furchtbar schade! Denn solche Maßnahmen, die darauf zielen, den Status Quo möglichst lange zu konservieren und uns Studierende aufs gute alte Internet und klassische Suchmaschinen einzuhegen, verschwenden Energie und wertvolles Potenzial. Wir Studierende brauchen aber eine Uni, die uns ermutigt und dabei unterstützt, KI für unsere Zwecke auszuloten. Und wir brauchen Lehrende, die ihr Wissen dazu nutzen, uns immer wieder ganz beiläufig an die Grenzen der Technik und deren Fehlbarkeit zu erinnern.

Unabhängig davon, ob die Dozenten und Professorinnen den Einsatz von Hilfsmitteln wie Chatbots in Ihren Veranstaltungen aktiv mit einplanen, untersagen oder noch dieselben Folien über den Tageslichtprojektor schieben wie vor zwölf Jahren: Studierende werden künstliche Intelligenz so oder so verwenden, um Aufgaben zu erweitern, zu erleichtern und zu variieren. Und dies passiert – so zumindest aus meiner Erfahrung – in der gesamten Studentenschaft: Egal welche Muttersprache und technische Vorerfahrung, die Möglichkeiten und Zugangsmethoden sind bei allen und in jedem Fach angekommen.

Schwieriger wird es dann schon, wenn es darum geht, einschätzen zu können, ob der Einsatz von einem Chatbot in den jeweiligen Fächern zu hilfreichen Ergebnissen führt oder nicht. Denn während ChatGPT das Prinzip der Emissionsspektroskopie in der experimentellen Physik souverän in mehreren Sprachen erklärt, gerät es bei Rechenaufgaben aus der höheren Mathematik schlagartig auf sehr dünnes Eis. Zu dünn, um Nachfragen korrekt zu beantworten; zu dünn, um als einzige Lernmethode und Wissensquelle für Prüfungen verwendet zu werden. Denn während man von Computeralgebrasystemen und Simulationsprogrammen einen erwartbaren Output zu gegebenem Input gewöhnt ist, sind Chatbots nicht unbedingt dafür bekannt, die konstantesten Antworten zu liefern.

Dass ChatGPT die Frage, ob 9,11 oder 9,9 größer ist, vehement mit “Klar, 9,11 ist größer als 9,9!” beantwortet, offenbart nicht nur, dass den Sprachmodellen das elementare Zahlenverständnis fehlt (und dieser Mangel bis dato eben nicht durch statistische Fähigkeiten kompensiert werden kann). Schlimmer noch, das Sprachmodell konstruiert eine Argumentationskette, die das Falsche mit Kontext ausschmückt und so noch weiter glaubhaft macht.

ChatGPT Zahlenvergleich (5 Bilder)

Die Frage, ob 9,11 größer ist als 9,9, beantwortet ChatGPT im Brustton der Überzeugung mit "9,11 ist größer". Immerhin begründet der Chatbot, wie er zu dem Ergebnis gekommen ist, sodass man leicht nachvollziehen kann, warum es falsch ist.

Die Hochschulen wären eigentlich der perfekte Ort, um die neue Technik kritisch und in all ihren Facetten zu beleuchten. Stattdessen scheinen sie momentan in eine Art Schockstarre zu verfallen – entweder gehen sie davon aus, dass die Studierenden ChatGPT und Konsorten nicht verwenden, oder dass sie das Thema KI gut beherrschen und keinerlei Hilfe bei der Einordnung der Ergebnisse benötigen. Doch falsch gedacht: Viele Studierende nehmen das, was KIs generieren, eins zu eins für bare Münze, wie auch das Bayerische Forschungsinstitut für digitale Transformation in einer Analyse nachweisen konnte.

Was uns jetzt aber ganz sicher nicht weiterbringt, ist ein neues Fach zum Umgang mit KI oder ein KI-Führerschein, der uns das Prompten beibringt. Viel hilfreicher wären konkrete Beispiele in den Vorlesungen jedes Fachbereichs, die plastisch vermitteln, wie KI zielführend eingesetzt werden kann. KI muss im Kontext und beiläufig vermittelt werden. Immer wieder eingestreute Hinweise wie zum Beispiel “Passen Sie auf, ein Chatbot kann keine korrekten Freikörperbilder zeichnen”, würden vielen unmittelbar helfen.

Kritiker könnten nun erwidern, dass Studenten auf der höchsten Laufbahn im deutschen Bildungssystem wohl in der Lage sein sollten, derartige Risiken selbst zu bewerten. Doch eine solche Urteilsfähigkeit kann nur entstehen, wenn Raum für Diskussionen geöffnet wird, fernab von Schlagzeilen und Kurzvideos mit TTS-Stimme, die in 15 Sekunden das “Killer-Prompt für PERFEKTE stöchiometrische Rechnungen” und die Sterne vom Himmel versprechen. Und vor allem ohne die Drohkulisse, die Lehrende mitunter aufbauen.

Schlicht kontraproduktiv sind die Drohungen mancher Dozenten, wie “Wer ChatGPT im Rahmen dieser Veranstaltung nutzt, fliegt raus”, oder demotivierende Sprüche wie “in der Zukunft sind Sie sowieso dank der KI arbeitslos, also warum strengen Sie sich überhaupt an?”. Wie schon Prof. Jörn Loviscach vollkommen zu Recht festgestellt hat: “Technik und Materialien” reichen nicht, um erfolgreich zu lernen. Es braucht auch Raum zum Austausch und Möglichkeiten der unbewerteten Anwendung, ebendies, was Tutorien an jeder technischen Hochschule seit Jahrzehnten bereits zum Klären von offenen Fragen und für die Prüfungsvorbereitung bewerkstelligen.

Einige Hochschulen stellen sich schon auf die neue Welle technischer Möglichkeiten ein. Insbesondere in den Geisteswissenschaften, die traditionell den Schwerpunkt auf Textproduktion legten, haben die ersten Universitäten bereits die Haus- und Bachelorarbeiten abgeschafft. Es ist nur eine Frage der Zeit, bis auch die technischen Studiengänge in Zugzwang geraten. Autodesk baut einen KI-Assistenten neuerdings direkt in die hauseigene CAD-Software ein und mit Text to CAD gibt es inzwischen sogar schon Ansätze, gesamte Konstruktionswerke von der Handarbeit zu entkoppeln. Wir müssen uns fragen: Wie können in der Zukunft noch Arbeitsproben fair bewertet werden? Sei es das Tragwerk der zukünftigen Bauingenieure, die Kurbelwelle der Maschinenbauer oder der elektrische Geschwindigkeitsregler der Elektrotechniker.

Text to CAD (2 Bilder)

Text to CAD konstruiert unterschiedliche Bauteile anhand von Textbeschreibungen.

Die wohl einfachste Lösung für dieses Problem heißt "mehr Klausuren”, und momentan deutet vieles darauf hin, dass die Hochschulen diesen Weg einschlagen. Das ist sehr bedauerlich, denn selten hat es eine bessere Möglichkeit gegeben, alte, bewährte Konzepte (Klausuren, mündliche Prüfungen) mit neueren Ideen (bewertetes Peer-Teaching, sokratische Seminare oder Gruppenprojekte mit Peer-Review) zu verweben und einen echten Mehrwert für Studierende zu liefern. Es wird Zeit, diese Trümpfe endlich auszuspielen und nicht die siebte Klausur ins zweite Semester zu hängen, weil die sonst über ein halbes Jahr verteilte Dokumentationsarbeit durch ChatGPT scheinbar sinnlos geworden ist.

Bei aller Diskussion um das Fachliche darf das Thema Chancengleichheit nicht unter den Tisch fallen. Gratisversionen einschlägiger KI-Werkzeuge mögen einen guten Einstieg in die Thematik bieten, erreichen aber gerade bei komplexen Arbeitsabläufen und Fragestellungen schnell ihren Horizont. Deshalb sollten Universitäten auch selbst moderne Chatbots, KI-Tools und Rechenleistung zum Arbeiten und Trainieren künstlicher neuronaler Netze bereitstellen, ähnlich wie es bei klassischer Software schon üblich ist: Wir erhalten Zugang zu den modernsten CAD- und EDA-Softwaresuiten, lizensiert für riesige Summen. Computerpools erlauben uns die Nutzung leistungsstarker Workstation-Computer, nur für die Welt der künstlichen Intelligenzen scheint es so, als wolle man erst noch abwarten und sehen, ob und was sich durchsetzt, bevor Lizenzen für Studierende erworben werden. Es kann nicht sein, dass sich gutsituierte Studenten bessere Chatbots erkaufen können und damit einen Vorteil erlangen gegenüber den finanziell weniger gut gestellten. Und da Chatbots mindestens so viel wie die Bibliothek (wenn nicht sogar mehr!) verwendet werden, sollte ein Teil unserer Semestergebühren in den Zugang zu den modernen Sprachmodellen fließen.

So wie wir jungen Menschen 2013 die Aussage der Altbundeskanzlerin “Das Internet ist für uns alle Neuland” mit einem gewissen Lächeln aufgenommen haben, müssen wir heute tatsächlich feststellen: “Die (generative) KI ist für uns alle Neuland” – und bevor wir wie bei dem Breitbandausbau den Anschluss verlieren, lohnt es sich, das Terrain gemeinsam zu erkunden. Nicht zwanghaft KI in jedes Fach und Thema drücken, sondern aufzeigen, wie KI uns Studierenden helfen kann und wie nicht. Trigonometrie müssen wir sicherlich auch in Zukunft können, den ausführlichen begleitenden Fließtext zu einem technischen Datenblatt schreiben wohl eher nicht. Und wenn uns KI dabei helfen kann, Trigonometrie zu verstehen, umso besser.

(atr)